Zum Inhalt springen

Rangliste

  1. Sk0b0ld

    Sk0b0ld

    Moderator


    • Punkte

      973

    • Gesamte Inhalte

      1.861


  2. captn.ko

    captn.ko

    Mitglied


    • Punkte

      800

    • Gesamte Inhalte

      4.556


  3. pitha1337

    pitha1337

    Mitglied


    • Punkte

      736

    • Gesamte Inhalte

      2.684


  4. Jörg

    Jörg

    Mitglied


    • Punkte

      439

    • Gesamte Inhalte

      4.070


Beliebte Inhalte

Inhalte mit der höchsten Reputation seit 16.11.2018 in allen Bereichen anzeigen

  1. Auf der Suche nach der Ursache von Fehlern oder Problemen wie Rucklern/Freezes bei Spielen oder Spulenfiepen wird sich oft über VRM, Powerstages, MOSFETs, VRAM, Chokes usw. unterhalten. Nicht jeder weiß was diese Begriffe bedeuten und vor allem, wo sie auf dem Board sitzen und was sie eigentlich für Aufgaben haben. Gerade für Besitzer eines Gaming-Notebooks, die ihr System besser verstehen wollen, könnte der Thread eine gute Hilfe sein. Da ich mich gerne mit der Hardware (und Kühlung) beschäftige, habe ich mir gedacht, dass ich mir die Mühe mache und einen ausführlichen Beitrag zu dem Thema erstelle. Zusätzlich wollte ich noch ein paar Begriffe erläutern, die hier oft in den Beiträgen erwähnt werden. Gerade für Neulinge, die sich noch nicht lange mit dem Thema beschäftigen, kann das Fach-Chinesisch eine Herausforderung sein. So hat man gleich den Vorteil, dass man in zukünftigen Beiträgen nicht alles erklären braucht, sondern einfach auf den Thread hier verlinkt. Eine Sache gleich vorweg. Ich weiß auch nicht alles, versuche aber das was ich weiß, so richtig wie möglich zu beschreiben. Nehmt's mir also nicht übel, wenn vielleicht die ein oder andere Info nicht richtig ist. Gerade im Bezug auf das Mainboard sind offizielle Informationen kaum vorhanden. Dazu später aber noch mal mehr. Manchmal sind meine Quellen auch nicht immer richtig. Wenn jemand also etwas richtig stellen möchte, freue mich natürlich über Kritik. Schließlich lernt man davon nur. Über positives Feedback freue ich mich natürlich auch^^. PCB Dieser Begriff steht für "Printed Circuit Board". Im Grunde beschreibt es einfach die Platine auf dem die Chips und die anderen Komponenten sitzen. Also jede Grafikkarte, jedes Mainboard, RAM-Riegel ist/ hat ein PCB. Unser Notebook-Mainboard ist ein sogenanntes Multi-Layer PCB. Das bedeutet, das die Leiterbahnen nicht nur ober- und unterhalb auf dem Board liegen, sondern auch da zwischen auf mehreren Schichten. Aus wie viel Schichten genau das AW-Board besteht, konnte ich leider nicht rausfinden. Ich nehme an, dass es zwischen 10 und 20 Schichten liegen müsste. Aktuelle High-Rnf Grafikkarten liegen bei 15 Layern und mehr. (Link Wikipedia) BGA Auch ein Begriff, der hier öfter fällt. BGA steht für "Ball Grid Array" und beschreibt das Verfahren wie Chips (GPU, CPU, VRAM, etc) aufs PCB gebracht werden. In Forenkreises meint man mit einem BGA-Notebook, dass die wichtigsten Komponenten wie CPU und GPU festgelötet und somit nicht austauschbar sind. Zumindest nicht so einfach. Es hat jedoch den Vorteil, dass sich ein besonders flaches PCB realisieren lässt und somit auch die super flachen Notebooks. Als Beispiel: vor der Montage sieht ein GDDR5 Speicher-Chip und ein Intel Core i7-7820HK wie folgt aus: Wie die Kügelchen auf den Chip kommen, kann man hier in dem Video sehen. (Link Wikipedia BGA) DIE Als DIE bezeichnet man die Oberfläche eines Chips. In den meisten Fällen meint man damit die Oberfläche (Diffursionsschicht/ -sperre) von CPU, GPU oder PCH. Also meist das, was so schön spiegelt. Besonders oft fällt dieser Begriff in Kühlungsthemen, wo es darum geht wie der Kühlkörper (Heatsink) auf dem DIE aufliegt. Bitte nicht verwechseln mit einem IHS (Intergradet Heatspreader). Dieser ist z. B. bei Intel-Desktop CPUs auf dem DIE geklebt. Bei unseren AW-Notebooks ist der Heatspreader die große Kupferplatte auf dem Kühlkörper. (Link Wikipedia Heatspreader) Komponenten des Mainboards Die Erläuterungen der Komponenten habe ich anhand meines AW17 R5 Mainboards gemacht. Jedoch lassen sich die Sachen auch auf andere Notebooks wie beispielsweise dem Area51m übertragen, da sich in der Grundstruktur nicht so viel verändert. Ich werde nicht all zu tief ins Detail gehen, da ich sonst wahrscheinlich drei Tage für diesen Beitrag brauche. Also nur kurz und knapp und warum sie da sind und was sie machen. Ich fange mit der Spannungsversorgung von CPU und GPU an. Da CPU und GPU die leistungsstärksten Komponenten auf dem Board sind, benötigen sie dementsprechend eine speziell starke Spannungsversorgung. Das Schaubild ist zwar mehr auf einen Desktop-PC bezogen, funktioniert aber relativ gleich im Notebook. Die "Chokes", auch "Coils" oder in deutsch "Spulen" heißen richtigerweise Induktor. Der Begriff "Spule" kommt tatsächlich davon, dass sich im Inneren eine spulenähnliche Konstruktion (siehe Bild) befindet. Auch das Problem mit dem Spulenfiepen kommt genau aus diesem Bauteil. Sie können, je nach Modell und Last, in einer Frequenz takten, wo sie das menschliche Ohr hören kann. Zusammen mit dem Voltage-Controller, Doublern, MOSFETs und den Kondensatoren füttern sie die CPU/ GPU mit ausreichend Strom. VRM = Voltage Regulator Modul, bezeichnet die gesamte Einheit von Anfang bis Ende. Das nächste Bild beschreibt die Begriffe PCH, VRM, VRAM und wo diese auf dem Board liegen. Angefangen bei der GPU. Die Spannungsversorgung für den GTX 1080 Chip, ist Vcore GPU. Der Video-RAM (auch VRAM) hat seine eigene Spannungsversorgung, abgekürzt Vmem. Der Video-RAM beträgt 8 GB GDDR5X. Der Speicher kommt von Micron und das X steht einfach für einen etwas schnelleren Speicher. Guckt man sich die Bereiche zur Spannungsversorgung an, ist auch genau das der Bereich, den die Heatsink abdeckt (siehe Bild mit HS). Gerade die MOSFETs können sehr warm werden und es wirklich wichtig, dass die Bauteile gekühlt werden. Zwar werden Sie nur passiv und mit einem Wärmeleitpad gekühlt, aber das reicht schon für einen normalen Betrieb unter Last aus. Werden die Komponenten nicht richtig gekühlt und werden zu heiß, greift eine Schutzabschaltung ein, ähnlich wie bei der CPU. Meist macht sich das mit (dauerhaftes Intervall) kleinen Rucklern oder Freezes bemerkbar. Die Spannungsversorgung der CPU ist allgemein auf den gesamten Chip bezogen. Wahrscheinlich sind die beiden äußeren Induktoren rein für die iGPU. Der Rest wie Audio Controller usw. sollte klar sein. Der LAN Controller hat noch eine galvanische Trennung. Guckt man sich mit den Infos jetzt ein Area 51m PCB an, findet man viele Komponenten wieder. Mainboard von meinem alten AW17 R4: Anschlüsse auf dem AW17 R5 Board: Noch ein paar ergänzende Sachen. Viele Chips besitzen in einer der Ecken eine Markierung. Bei CPU und GPU sind das ein Dreieck bzw. ein Pfeil und bei den anderen Chips ein Punkt. Ich habe mal ein paar markiert. Von der CPU kennen das sicherlich viele. Die Markierungen sind dazu da den Chip richtig rum einzubauen. In einigen Schaltplänen ist die Markierung ebenfalls zu sehen. Falls es jemanden interessiert wie so ein Schaltplan im Einzelnen aussieht, einen Schaltplan vom M17x R4 hätte ich da: AW Schematics Document Was Aktuelles wird man leider nicht so einfach bekommen. Ich lade in den nächsten Tagen noch zwei High-Resolution Bilder vom R5 Mainboard hoch. Dann kann sich jeder einen besseren Blick vom PCB verschaffen.
    16 Punkte
  2. In der Vergangenheit kam es regelmäßig vor, dass Fragen mit irgendwelchen Temperatur- oder Taktwerten gestellt wurden. Um auf die Fragen gezielt eingehen zu können und überhaupt das ganze irgendwie sinnvoll zu bewerten, bedarf es oft weiterer Informationen. Ein dafür äußerst hilfreiches Tool ist HWinfo64. Damit lässt sich fast alles überwachen und das meiste bequem einstellen. Aus meiner Sicht ein Must-Have Tool, was auf keinem Rechner fehlen darf. Die Vergangenheit hat auch gezeigt, dass einige User mit dem Umgang Probleme haben oder bestimmte Werte falsch interpretiert werden. Deshalb wurde es schon lange Zeit für den HWinfo-Thread. 1. Installation Nicht selten kam die Frage auf: "Was muss ich auswählen?/ Welche Version muss ich nehmen?". Daher nehme diesen Punkt jetzt mal mit auf. Die Software lässt sich kostenlos auf der HWinfo-Homepage, im Download-Bereich runterladen. Die Version, die ich dafür immer nehme, ist Local (U.S.). Zur Installation gibt es nicht viel zu sagen. Ist halt eine Standard-Installation, wo man eigentlich nichts falsch machen kann. 2. Ansicht-Modus, Layout und Einstellungen Anfangs können einem die vielen Ansichtsmöglichkeiten, Einstellungen und Werte erschlagen und man weiß gar nicht wo anfangen soll. Gerade wenn sich das Layout im "Sensors only" noch in der Default-Ansicht befindet und einfach alles angezeigt wird. Ich gehe auf jede Ansicht kurz ein und nenne einige Gründe, wann welche Ansicht zu empfehlen ist. 2.1 Ansicht "all" Sobald man HWinfo installiert hat und es startet, fragt das Tool in welcher Ansicht man sich die Daten anzeigen lassen will. Wählt man gar nichts aus bzw. schränkt nichts ein, sprich keinen Haken bei Summary only und Sensors only, wird eine erweiterte Summary-Ansicht angezeigt. Das ganze sieht dann so aus: Man hat verschiedene Fenster, wo sich verschiedene Informationen ablesen lassen. Gerade die linke Anzeige kann sehr hilfreich sein, wenn man beispielsweise wissen möchte, welches Display man verbaut hat (sehr beliebte Frage bei Area51m) oder Detailinformationen über den RAM. 2.2 Ansicht "Summary only" Diese Ansicht ist eine Zusammenfassung (engl. Summary) aller wichtigen Daten. Bedeutet, welche CPU, GPU, welcher RAM, welche Festplatten-Konfig usw. ist verbaut + ein kleines Fenster, was die CPU so treibt. Ein beliebtes Beispiel, wo die angezeigten Informationen falsch interpretiert werden, ist der Arbeitsspeicher. Die Ansicht zeigt hier zwei Werte: Punkt 1 bezieht sich dabei nur auf den RAM und welche Profile auf seinem SPD-Chip hinterlegt sind. Das hat erstmal rein gar nichts damit zu tun, wie der Speicher im Notebook arbeitet. Man kann es mit den m.2 SSDs vergleichen. Nur weil 500 GB angezeigt werden, heißt es nicht, dass auch 500GB belegt sind. Genau dafür gibt es Punkt 2. Hier wird angezeigt, wie der eingesetzte RAM im Notebook arbeitet und welches Profil angelegt ist. In meinem Fall taktet der RAM auf 2.666 MHz mit den entsprechenden Timings. Der Takt wird oft als "Hälfte (1.333)" angezeigt und muss mal zwei multipliziert werden. Der Grund dafür ist, dass ein DDR = Double Data Rate Speicher zwei Signale pro Taktzyklus anlegt. Im Area51m, wo der RAM maximal auf 2.400 MHz läuft, steht dann dementsprechend der Taktwert auf 1.200 Mhz. 2.3 Ansicht "Sensors only" Hierbei handelt es sich über detaillierte Ansicht aller Sensoren und Werte mit Zeitangabe. Aus meiner Sicht, ist das die wichtigste Ansicht, da sich hier viele Rückschlüsse ziehen und Fehler, hohe Temperaturen, Leistung usw. gut bewerten lassen. Um diese Ansicht zu starten, einfach auf "Sensors only" klicken und Run. Anfangs im Standard-Layout bekommt man eine unübersichtliche Vielzahl an Informationen angezeigt. In der Regel braucht man nie derart viele Informationen. Glücklicherweise bietet HWinfo die Möglichkeit das Layout nach seinen Wünschen zu gestalten. Für die Temperatur- und Leistungsbewertung habe ich mein Layout wie folgt angepasst: Damit die Ansicht am Ende so aussieht, kann man mit Rechtsklick --> Kontextmenü --> "Hide" viele Werte ausblenden, die man nicht braucht. Mit "Rename" kann man die Werte umbenennen. Je nach Model, werden die Lüfter mal angezeigt und mal nicht. Werden die Lüfter nicht angezeigt, hat man die Möglichkeit über die Settings, zweiter Reiter Safety, durch das Deaktivieren des EC Supports, dass die Lüfter angezeigt werden. Soweit mir bekannt, ist das nur beim Area51m so. Beim AW17 R4/ R5 werden die Lüfter von Anfang an erkannt und tauchen auch in der Ansicht auf. Beim m15 & m17 R1 habe ich es nicht geschafft, dass mir die Lüfter angezeigt werden. Das liegt höchstwahrscheinlich daran, dass speziell Notebook-Mainboards "nicht bekannte" Controller einsetzen und HWinfo keine Informationen darüber bekommt oder diese nicht richtig interpretieren/ auslesen kann. Manchmal hilft ein Ausprobieren mit verschiedenen Einstellungen. Wo die Lüfter ebenfalls nicht anzeigt werden, ist wenn man HWinfo startet, die Lüfter aber still stehen (0 rpm). Sobald die Lüfter anlaufen wird ein Signal (rpm) ausgegeben und HWinfo führt sie dann in der Liste auf. Das kommt oft vor, wenn man sein Notebook im idle mit einem Kühler betreibt. 3. Verstehen Leistungsangaben und Temperaturwerte stehen unmittelbar mit anderen Faktoren im Verhältnis. Möchte man beispielsweise Temperaturen bewerten, so sind andere Werte ebenso zu berücksichtigen. Deshalb sind Antworten auf allgemeine Fragen wie "...sind die Temperaturen in Ordnung?" ohne Angabe weiterer Faktoren, die damit zusammenhängen, höchstens eine gutgemeinte Schätzung. Wenn man sein Layout mit "hide" und "rename" angepasst hat, sind folgende Werte mindestens zu empfehlen: 3.1 Verstehen der Werte Ganz oben in der Leiste finden sich verschiedene Angaben zur Zeiterfassung: Current: Aktueller Wert Minimum: Kleinster Wert in der gemessen Zeit Maximum: Höchster Wert in der gemessen Zeit Average: Durchschnittlicher Wert in der gemessen Zeit Punkt 1: Clock-Ratio Hierbei handelt es sich um den Multiplikator (kurz Multi), der zusammen mit dem Bus-Takt (üblicherweise 100 MHz FSB) den Kern-Takt ergibt. In dem Beispiel ist Multi 46x mal 100 MHz = 4.600 MHz/ 4,6 GHz. Durch die kleinen Zahlen ist dieser Wert schnell und einfach abgelesen. Punkt 2: Kern-Temperaturen Der Punkt sollte wohl selbsterklärend sein. Punkt 3: Voltage-Offset Dieser Punkt ist wichtig, um sein Undervolting zu überwachen. Gerne werden diese beiden Werte verallgemeinert oder gleichgesetzt, jedoch ist das nicht richtig. Wenn man beispielsweise mit ThrottleStop undervoltet, bezieht sich IA Voltage Offset im TS auf CPU Core UV und CLR Voltage Offset auf CPU Cache UV. Beim Undervolting sollten CPU Core und CPU Cache immer gleich hoch undervoltet werden, da in dem Fall immer nur der geringste Wert tatsächlich von der CPU angenommen wird. Undervoltet man beispielsweise CPU Core mit -150mV und CPU Cache mit -100mV, wird für die CPU insgesamt nur die -100mV übernommen. Punkt 4: CPU Package Power Ein besonders wichtiger Wert wenn man Leistung und Temperaturen bewerten möchte, wenn nicht sogar mit der wichtigste überhaupt. CPU Package Power zeigt an, was tatsächlich an Strom/ Leistung durch die CPU gegangen ist. Dieser Wert ist auch bekannt als TDP Leistung einer CPU. Zum Thema TDP werde ich mich hier jetzt nicht allzu detailliert äußern. Nur so viel: Die CPU ist mit 45w TDP Leistung spezifiziert und hätte ich die CPU nach Intel's Mess-Spezifikation mit Basistakt 2,9 GHz und 100%iger CPU-Auslastung betrieben, wäre ich auch irgendwo bei 45w gelandet. Da ich die CPU aber außerhalb der Intel-Spezifikation betreibe, ist es nicht überraschend, dass die Leistungsaufnahme bis sogar 95,913w im max hochging. Je nach Benchmark und Spiel wird die CPU verschiedenen hoch ausgelastet. Dadurch ergeben sich logischerweise auch andere CPU-Power Werte. Fließt weniger Strom durch die CPU, läuft sie natürlich kühler. Möchte man seine Temperaturen vergleichen, ist dieser Wert absolut wichtig zu beachten. Denn nur, wenn die gleiche Leistung generiert wurde, kann man überhaupt verschiedene Logs miteinander vergleichen. Zu einem Beispiel komm ich im Punkt 3.2. Punk 5: PCH und RAM Temperaturwerte des PCH und RAM. Sollte eigentlich auch selbsterklärend sein. Interessant wird dieser Punkt, wenn man beispielsweise einen PCH-Mod verbaut oder das System Freezes zeigt, welches sich auf zu hohe PCH-Temps zurückführen lässt. Der m15 R1, flach auf dem Tisch, im Out of the box Zustand ist da so ein Kandidat. Punkt 6: Lüfter Auch dieser Punkt sollte selbsterklärend sein. Jedoch ist er wichtig, wenn man Temperaturen vergleichen oder bewerten möchte. Drehen die Lüfter weniger, wird auch weniger Luft umgesetzt, was die Kühlleistung vermindert. Das sich die Lautstärke der Lüfter mit steigender RPM-Drehzahl erhöht, muss nicht extra erwähnt werden. Das sind alles so Faktoren, die bei der Bewertung wichtig sind. Punkt 7: SSD & HDD Sollte ebenfalls selbsterklärend sein. Auch diese Werte können unter bestimmten Voraussetzungen interessant und wichtig sein. Beispielsweise wenn man einen SSD-Kühler oder/ und zusätzlich einen externen Notebook-Kühler einsetzt. Natürlich auch wenn man die Festplatten mit großen Kopier-/ Schreibaufgaben belastet. Punkt 8: GPU Bei der Grafikkarte sollten die meisten Werte auch eigentlich klar sein. Anmerken muss ich hier ebenfalls den Punkt mit der Leistung und dem Strom (GPU Power). Auch das ist ähnlich zu vergleichen wie mit der CPU Package Power. Wird mehr Leistung gefordert, fließt auch mehr Strom, was logischerweise zur Temperaturerhöhung führt. Gerade wenn man eine "Shared-Heatsink-Konstruktion" hat, beeinflusst die Temperatur des einen Chips auch immer den anderen. Je nach Model, fällt das mal höher oder geringer aus. Punkt 9: Listenanzeige Mit diesem Button kann man sich die Listenanzeige auf mehrere Seiten ziehen. Ich wollte es mal erwähnen, bevor die Frage wieder auftaucht wie man die Liste auf mehrere Seiten bekommt. Punkt 10: Zeit Anzeige der gemessenen Zeit. Dieser Punkt ist besonders wichtig für das Loggen, dazu aber mehr im Punkt 3.2. Punkt 11: Reset-Button Eine Funktion zum resetten aller Werte. Zusammen mit dem Punkt 10 und dem Loggen eine wichtige Funktion. Zusätzliches: Noch einige Punkte, die hier jetzt nicht aufgelistet sind. Powerlimit 1 & 2: Die PL's tauchen normalerweise unter Punkt 4 auf. Es kann aber durch vorkommen, dass der Punkt hin und wieder verschwindet, so wie in meinem Chart halt. Die PL's begrenzen die Maximal-Leistung, die sich die CPU genehmigen darf. Je nach Lüfterprofil und Temperatur ändern sich die Limits. Meist ist das Setting so ausgelegt, dass mit erhöhter Lüfterdrehzahl auch die Powerlimits angehoben werden. Sprich, mit mehr Kühlleistung, darf sich die CPU auch mehr Leistung erlauben. Läuft man ins Thermal Throttling (Thermale Grenze 100°C), kann es vorkommen, dass die PL dynamisch angepasst und abgesenkt werden. Powerlimit 1 bezieht sich dabei auf das "Long Term Power Boost Window". Also das, was sich die CPU theoretisch die ganze Zeit gönnen darf, sofern sich nicht zu heiß wird. Powerlimit 2 bezieht sich dabei auf das "Short Term Power Boost Window". Also das, was sich die CPU im Boost genehmigen darf. Als Beispiel: Beim m15 R1 ist der Short Boost auf 30 Sekunden begrenzt und der Höchsttakt auf 4,8 GHz. Unter dem höchsten Lüfterprofil (Lüfter 100%), wird das Powerlimit auf PL1-78w/ PL2-90w angehoben. Wobei die All-Core Leistung mit 4,2 GHz sich ausschließlich nur auf PL1 dann bezieht. Distance to TjMax: Ein Punkt, der hin und wieder mal gefragt wird, ist TjMax. TjMax steht dabei für "Distance to Maximum Junction Temperature" (Wikipedia). Es gibt verschiedene Interpretationen wie dieser Wert verstanden oder gemessen wird. Es hängt zum einen von der eingesetzten Software ab und zum anderen auch ob CPU oder GPU gemeint ist. Da gibt's verschiedene Ansichtsweisen. Vereinfacht gesagt, HWinfo zeigt euch mit diesem Wert an, wie viel Luft (Headroom) noch im Temperaturbereich ist, bevor gedrosselt wird. Standardmäßig drosseln die CPUs bei 100°C. Jetzt im Beispiel oben hatte ich auf Core #0 beim Spielen 69°C im Durchschnitt. Distance to TjMax ist somit 31°C. Addiert man beide Werte zusammen, kommt man wieder auf 100°C. Bedeutet also soviel wie, dass ich theoretisch noch ein bisschen die Leistung aufdrehen könnte. Diese Anzeige kann schon praktisch sein, wenn man wissen möchte wie viel Spielraum man mit einem Setting bei Spiel A und wie viel bei Spiel B hat. Da verschiedene Spiele das System unterschiedlich stark belasten. Fehler-/ Warnmeldungen Ich werde hier jetzt nur die wichtigsten ansprechen, da der Beitrag ansonsten explodiert und ich bis morgen hier dran sitze. Der Begriff: "PROCHOT" steht für Processor Hot und taucht meist zusammen mit Thermal Limit auf, was bei den Notebooks meist bei 90-100°C erfolgt, je nach dem welches Limit gesetzt ist. Im Desktop-Bereich kann man thermale Grenzen meist selbst ein einem gewissen Rahmen bestimmten. Daher können zwei, auf den ersten Blick, gleiche Meldung sinnvoll erscheinen, da eine Meldung sich auf die Spezifikation der CPU bezieht und die andere auf das Mainboard-Setting. Der Begriff "Powerlimit exceeded" wird auch immer wieder mal gefragt. Diese Meldung tritt auf, wenn man an oder über sein Powerlimit kommt. Beispiel: Angenommen mein Notebook hat im Lüfterprofil "Silent" ein Powerlimit von PL1-45w/ PL2-60w. Mit ThrottleStop übertakte ich die CPU leicht und starte einen Cinebench. Die CPU gibt Vollgas und zieht so viel Strom, dass sie problemlos über die Powerlimits 45w/ 60w kommt. Das Mainboard, genauer gesagt der Voltage-Controller, der durch das BIOS, aufgrund des Lüfterprofils, die Powerlimits beschränkt, drosselt die Stromzufuhr. Kurz gesagt, erreichen der Powerlimits = Powelimit exceeded. Die CPU wird gezwungen sich runterzutakten, damit sie mit dem begrenzten Strombedarf wieder klar kommt. 3.2 Verstehen der Zusammenhänge In diesem Punkt führe ich verschiedene Beispiele auf, wie die Daten in Beziehung stehen und auf was zu achten ist, wenn man die richtigen Rückschlüsse ziehen will. Um die CPU-Temperaturen bewerten zu können braucht man mindestens drei Kriterien: CPU Package Power Lüfterdrehzahl Zeit Ist einer dieser Faktoren unbekannt, kann man keine logischen Rückschlüsse auf die Kühlleistung schließen. Man kann höchstens versuchen irgendwas zu schätzen, aber das war's auch schon. Natürlich sind noch andere Parameter wichtig, um eine Vergleichbarkeit bzw. genauere Bewertbarkeit zu schaffen, aber die drei oben genannten sind auch meiner Sicht die wichtigsten. Andere wichtige Faktoren sind: Log Start & Log Ende durchschnittlich gehaltener Takt Außentemperatur Undervolting Wärmeleitmittel Modding & externe Kühler Powerlimits Je nach dem was oder wie man bewerten möchte ist auch der Start- und Endpunkt des Logs enorm wichtig, weil man sonst mit idle-Werten seine Zahlen verfälscht/ schönt. Dann, zwischen den einzelnen CPUs/ GPUs gibt dann auch noch mal Unterschiede. Sprich, nicht jeder 9900K oder RTX 2080 performt gleich (auf Temps bezogen), jedoch jetzt für das Beispiel, lasse ich mal solche Faktoren außen vor. Zur Verdeutlichung was ich meine, hier mal zwei HWinfo Logs von meinem R5 im Vergleich. Im ersten Beispiel habe ich ca. 45 Minuten FC5 New Dawn gespielt. Der Log beläuft sich jedoch auf ca. 35 Minuten, weil ich immer ca. 10-15 Minuten warm spiele bevor ich den Log anfange. Dazu starte ich HWinfo und das Spiel. Nach der Warmlaufphase wechsel ich kurz auf HWinfo und resette die Werte (Uhr-Symbol). So kann ich sicher sein, dass ich meine eigenen Werte nicht mit Idle-Temps verfälsche. Später gehe ich dann während des Spiels wieder kurz auf HWinfo und mach dann den Screenshot. So bekommt man dann die reinen Ingame-Werte. Ein möglicher Log kann wie folgt aussehen: und jetzt noch mal ein 3 Minuten Log mit 5,3 GHz all Core: Deswegen ist der Takt für Temperatur-Bewertung zunächst erstmal uninteressant, weil Package Power + Kühlung (Lüfter) + Zeit die Temperaturen bestimmen. Deswegen ist Cinebench nicht unbedingt geeignet um Temperaturen zu bewerten. Der Benchmark ist einfach zu kurz und testet den absoluten Worst-Case für die CPU, was mit Gaming-Leistung/ Temperaturen nicht viel zu tun hat. Möchte man seine Werte später mit anderen Geräten vergleichen, sind auch die anderen Parameter interessant, damit man überhaupt eine Vergleichbarkeit schaffen kann. Beispielweise man möchte wissen, ob die Wärmeleitpaste MX-4 besser performt als Kryonaut oder ob sich Undervolting lohnt bzw. wie viel. ------------------------------------------------------------ Schlusswort Insgesamt betrachtet ist das natürlich schon recht viel Info und bei weitem nicht alles, was man so mit HWinfo noch machen kann. Dennoch hoffe ich, dass der Beitrag für den ein oder anderen interessant oder hilfreich war. Wenn ich noch etwas vergessen habe oder nicht richtig erklärt, sagt mir bitte bescheid. Dann ändere ich den Beitrag an der Stelle.
    13 Punkte
  3. Moin zusammen, wie ihr sicher alle schon am eigenen Leib erfahren musstet, kann die Frage: "Was ist eigentlich die beste Wärmeleitpaste?" zu einem Kleinkrieg der Meinungen führen. Häufig kommen dabei Aussagen wie "Also bei mir läuft es seit dem 3°C kühler!" oder "Die Herstellerangaben stimmen nicht!" auf. Ich habe mir in den letzten zwei Wochen das Ziel gesetzt, mich mal wissenschaftlich mit dem Thema zu beschäftigen und, so hoffe ich, endlich Klarheit in diese Thematik zu bringen. Zunächst zu den oft gehörten und hier frei zitierten Aussagen: "Also bei mir läuft es seit dem 3°C kühler!" mag bei dem Autor stimmen, trägt aber keinerlei Aussagekraft für andere Systeme. Tatsächliche Abwärme, Lufttemperatur und Luftfeuchtigkeit, Nutzungsverhalten, Gehäuse, Kühloberfläche und Wärmeleitwege haben einen viel zu großen Einfluss. Selbst die Schlussfolgerung "besser als die alte Paste" ist mit Vorsicht zu genießen. Pasten altern viel zu unterschiedlich und auch die Temperatur, bei der sie getestet werden ist maßgeblich. Dazu aber im nächsten Absatz mehr. Sehr verwundert hat mich die Aussage: "Die Herstellerangaben stimmen nicht!". Ich konnte mir kaum vorstellen, dass die Hersteller auf ihren Verpackungen lügen. Viel zu groß ist die Gefahr sich damit selbst sein "Image-Grab" zu schaufeln. Bei der Recherche ist mir ein wesentlicher Punkt aufgefallen: Es steht nie dabei, in welchem Temperaturbereich der Wärmeleitwert gemessen wurde, oder bei welcher Schichtstärke. Die Wärmeleitfähigkeit von Flüssigkeiten (mit einem flüchtigen Bestandteil) nimmt mit steigender Temperatur ab. Das hängt mit dem Phasenverhalten der einzelnen Bestandteile der Paste zusammen. Wurde vom Hersteller also bei einer sehr geringen Temperatur gemessen, kann das die Wärmeleitfähigkeit positiv beeinflussen. Auch die Schichtdicke ist nicht uninteressant. Der Wärmeübergang an den Oberflächen der Paste ist schlechter als im Inneren. Also kann eine Dicke Schicht die Werte des Herstellers auch schönen. Aber Vorsicht! Das bedeutet nicht, dass eine dicke Schicht in PC besser ist. So oder so ist die Leitfähigkeit der Paste schlechter als die von Kupfer oder Aluminium. Daher sollte die Schicht natürlich IMMER so dünn wie möglich sein. Wie wir sehen konnten gibt es einige Möglichkeiten für die Hersteller die Ergebnisse zu beeinflussen. Doch wie bekommt man jetzt heraus welche Paste für welchen Anwendungsfall die beste ist? Zu diesem Zwecke habe ich mit einen Versuch überlegt. Wen nur die Ergebnisse interessieren, der kann weiter unten gucken. Für die technisch Interessierten unter euch (ich tippe auf die Mehrheit) habe ich versucht mein Vorgehen (hoffentlich verständlich) zusammen zu tragen. Grundaufbau und Idee: Der Versuch besteht aus einem leistungsstarken Labornetzteil, einem Steckbrett mit Arduino zur Datenverarbeitung, einem Laptop zur Anpassung der Prüfparameter, einem Lüfter zum schnelleren Abkühlen nach dem Versuch und.... dem eigentlichen Experiment. Das besteht aus zwei identischen Aluminiumkörpern mit Sensoren und Heizelementen. Beide Körper haben eine sehr ebene Prüffläche auf die die Wärmeleitpaste aufgetragen wird. Mit einer kräftigen Kunststoffklemme wird der Anpressdruck erzeugt. Die beiden Blöcke habe ich aus Aluminium gedreht und gefräst. Sie haben genau die gleichen Abmaße, was bei der Berechnung der thermischen Kapazität wichtig wird. Außerdem habe ich die Messoberfläche sehr fein geschlichtet, um eine spiegelnd glatte und Ebene Auftragsfläche für die Paste zu erzeugen. Anschließend habe ich den ersten Block mit zwei Keramikheizelementen ausgestattet. Diese eigenen sich besonders gut, da sie die Wärme über einen elektrischen Widerstand erzeugen und somit einen Wirkungsgrad von fast 100% haben. Jedes Element hat ca. 40W Wärmeleistung. Außerdem habe ich einen Temperaturfühler (NTC-Thermistor mit 100k) nur einen Millimeter hinter der Messfläche in der Mitte angebracht. Der zweite Block bekam nur einen Sensor und keine Heizelemente. Die Idee hinter dem Aufbau: Wenn der erste Block erwärmt wird beginnt ein Wärmestrom durch die Prüffläche und die Wärmeleitpaste in den zweiten Block zu fließen. Dieser Wärmestrom ist, in Abhängigkeit der Schichtdicke, der Auflagefläche und der Temperaturdifferenz, begrenzt durch den Wärmeleitwert zwischen den Prüfflächen. Thermodynamik 🤮 Ich muss zugeben, dass Thermodynamik nicht mein Lieblingsfach im Studium war. Jedoch ist das hier ein relativ einfacher Zusammenhang und somit nicht ganz so sauer, wie es meiner Überschrift aufstößt. Für die Berechnung des Wärmeleitwerts benötigen wir folgende Größen: Den Wärmefluss Qp [W] Den Abstand zwischen den Messflächen l [m] Die Fläche der Messflächen A [m²] Die Temperaturdifferenz der Messflächen dT [°K] Gesucht ist der Wärmeleitwert lamda [W/m*K] = [W*m/m²*K]. Nun ist leider die Wärmeleistung der Heizelemente nicht gleich dem Wärmefluss zwischen den Blöcken. Jeder kennt dieses Phänomen aus dem Alltag. Stellt man einen Topf auf den Herd, so dauert es eine Weile, bis er heiß genug zum kochen ist. Das liegt an der Wärmekapazität. Um das zu erklären ist es zunächst wichtig zu verstehen, dass Wärme und Temperatur nicht die gleichen Dinge sind. Wärme ist eine Energieform, weshalb ihre Einheit auch Joule oder Wattsekunde ist - daher auch der Wärmefluss in Watt! Die Temperatur gibt an, wie viel Energie in Abhängigkeit der Wärmekapazität ein einer bestimmten Menge eines bestimmten Stoffes enthalten ist. Das ist sehr kompliziert ausgedrückt, was im Grunde auch jeder von zuhause kennt. Man braucht mehr Energie um ein kg Wasser zu erhitzen als ein kg Luft. Die Einheit der Wärmekapazität ist J / kg * K (Joule pro Kilogramm mal Kelvin). Aluminium besitzt eine Wärmekapazität von 900 J/kg*K. Da ein Joule gleich einer Wattsekunde ist, kann man sagen, dass man 900W braucht um 1kg Alu um ein Grad Kelvin in einer Sekunde zu erwärmen. Werden nun beim Versuch die Blöcke erwärmt, kann man anhand dieses Zusammenhangs und der Heizdauer die Leistung berechnen, die in das Alu geflossen ist. Rechnet man die beiden Leistungen der Blöcke zusammen. Erhält man eine Leistung, die knapp unter der Elektrischen Leistung liegt. Die Differenz ist Wärme, die von den Blöcken an die Luft abgegeben wurde. Daraus wird ein Korrekturwert berechnet, der zusammen mit der Leistung des zweiten Blocks den Wärmestrom durch die Paste ergibt. Ab hier ist es einfach. Der Anstand der Messflächen ergab sich als 0,05mm und die Oberfläche ist aus der Konstruktion bekannt. Somit kann der Wärmeleitwert berechnet werden. Versuchsdurchführung und Ergebnisse Durch einen Druck auf einen kleinen Taster wir die Messung gestartet. Von der Raumtemperatur ausgehend habe ich auf 35°C, 50°C und 100°C erhitzt. Am Ende des Versuchs wurde mir das Messergebnis auf einem kleinen OLED angezeigt. Ich habe auch die Wärmeleitfähigkeit eines Motoröls gemessen, da diese dort sehr genau im Datenblatt angegeben wurde und konnte damit die Richtigkeit meiner Messergebnisse sehr gut belegen. Alle Werte lassen sich mit einer Genauigkeit von 0,02W/m*K reproduzieren. Ich habe folgende Pasten getestet: Thermal Grizzly Kryonaut fast 5 Jahre alt aber noch sehr flüssig und nicht eingetrocknet angegeben mit 12,5W/m*K Thermal Grizzly Kryonaut 1g Packung (war bei meinem Kühlblock dabei) kein Jahr alt aber schon ziemlich hart aber noch nicht trocken angegeben mit 12,5W/m*K Industrielle Wärmeleitpaste angegeben mit 1,73W/m*K Wärmeleitmittel 20°C bis 35°C 20°C bis 50°C 20°C bis 100°C Luftspalt (0,01mm) 0,17 W/m*K X X Thermal Grizzly (0,05mm) alt 7,03 W/m*K 4,24 W/m*K 1,68 W/m*K Thermal Grizzly (0,05mm) 1g Packung 2,40 W/m*K 1,48 W/m*K 1,48 W/m*K Motoröl 15W40 0,48 W/m*K 0,38 W/m*K 0,24 W/m*K Industriepaste 3,58 W/m*K 1,97 W/m*K 1,32 W/m*K Alle Angaben mache ich nach bestem Wissen und Gewissen aber ich hafte natürlich nicht für etwaige Fehler, die mir bei der Messung unterlaufen sein könnten. Als nächstes möchte ich gern von euch wissen, welche Pasten am interessantesten zum testen sind. Ich werde mir auf jeden Fall frische Thermal Grizzly Kryonaut und Arctic MX5 besorgen. Aber wenn ihr noch interessante Pasten für mich habt, lasst es mich gerne wissen. In Zukunft soll mein Prüfaufbau das Steckbrett verlassen. Ich werde eine Platine und ein eigenes Netzteil mit interner Leistungsmessung ergänzen um die Genauigkeit und die Bedienfreundlichkeit zu erhöhen. Falls ihr Ideen dazu habt auch immer her damit. Vielleicht hat ja sogar der eine oder andere an einem fertigen Produkt. Ich hoffe Ihr habt Spaß mit meinem kleinen Versuch und findet die Ergebnisse (die noch folgen werden) hilfreich. LG
    11 Punkte
  4. Kurztest Razer Blade 18 und Asus Scar G18 So, hab sowohl das Blade 18 als auch das Scar G18 ausgepackt und getestet. Am interessantesten für mich war, wie viel Leistungsaufnahme die (starken) CPUs bei Dual-Load in einem noch erträglichen (4X dbA) Lüfter-Profil ("Balanced" oder ähnlich) abführen können/dürfen. Außerdem war für mich interessant, wie die Charakteristik der Lüfter ist. Zur (permanenten, also PL1) CPU-Leistungsaufnahme im „Balanced-Mode“. Bei z.B. FarCry 6, was auch ordentlich CPU-Leistung für viele fps möchte, fällt die CPU bereits nach kurzer Zeit auf ca. 45 W (Blade 18) bzw. 55 W (Scar G18). Das ist definitiv zu wenig, hierdurch fallen die fps auch ordentlich und CPU-Limits verschärfen sich deutlich. Für mich indiskutabel: FarCry 6 Savegame im CPU-Limit (wenig Load auf der GPU) im Leistungs-/Lüfter-Profil "Balanced" (beim Scar G18 heißt es „Leistung“) 10900K (Area 51m R2) bei um die 125 W: 92 fps 13950HX (Blade 18) bei um die 45 W: 103 fps 13980HX (Scar G18) bei um die 55 W: 118 fps 13900K (Mini-ITX-Desktop) bei um die 105 W: 161 fps Hinweis 1: Der in der Überschrift genannte Leistungs-/Lüfter-Modus bezieht sich natürlich nur auf das Blade 18 und Scar G18, das Area 51m R2 lief im Silent-Modus und der Desktop ja eh völlig individuell Hinweis 2: Beim Area 51m R2 wird bei um die 125 W im Silent-Profil (!) das langfristige Temp-Limit erreicht, sonst wären wohl noch paar fps mehr drinnen. Würde die GPU voll arbeiten, wären aber etwas weniger Watt möglich, aber wie gesagt: Silent-Profil! Die anderen beiden Laptops dürfen halt einfach langfristig gar nicht mehr (PL1) Hinweis 3: Egal ob die GPU voll arbeitet oder nicht, beim Desktop wird bei um die 105 W mein langfristige Temp-Limit erreicht (das Mini-ITX-Gehäuse ist ja sehr klein und es wird ein kleiner CPU-Kühler verwendet, den ich auch noch zusätzlich auf leise getrimmt habe. Was der 13900K aber bei um die 105 W abliefert, ist ja absolut beeindruckend). Mit mehr Lüfter-rpm und/oder einem größeren CPU-Kühler würden noch mehr als 161 fps möglich sein. Der Abstand zu den mobilen Top-CPUs bei Dual-Load in den 18er Laptops ist ja aber jetzt schon riesig. Bei um die 90 W liefert der 13900K übrigens noch immer 156 fps - wie gesagt 161 bei um die 105 W). Hinweis 4: In dem Beispiel / Spiel mögen für viele auch bereits die 92 fps des Alienware Area 51m R2 / 10900K ausreichend sein. Aber erstens gibt es üblere Stellen im Spiel, und zweitens gibt es mittlerweile so einige Spiele, wo man die fps quasi durch 2 teilen kann, und dann bleibt bei allen Laptops nicht mehr viel über bzw. nicht einmal stabile 60 fps in entsprechenden Szenen. Das mag bei solchen Spielen auf schlechte Entwicklung / Optimierung / Ports zurück zu führen sein, aber was will man machen, wenn einem diese Spiele gefallen... Das Scar G18 ist schneller als das Blade 18, was nicht nur durch die höhere Leistungsaufnahme zu erklären ist. Einer der Gründe ist die etwas besser taktende CPU, ein weiterer vielleicht der Ram (nicht verglichen). Beim maximalem Leistungs-/Lüfter-Profil (5X dbA) sind dann im gleichen Test ca. 65 W bei beiden dauerhaft möglich. Natürlich liegen die ersten wenigen Minuten bei beiden über 100 W an. Ein so lautes (Hilfe!) Lüfter-Profil ist für mich indiskutabel. Zudem ist die Leistungsaufnahme für meinen Geschmack immer noch zu wenig: FarCry 6 Savegame im CPU-Limit (wenig Load auf der GPU) im maximalen Leistungs-/Lüfter-Modus 10900K (Area 51m R2) bei um die 125 W: 92 fps 13950HX (Blade 18) bei um die 65 W: 110 fps 13980HX (Scar G18) bei um die 65 W: 118 fps 13900K (Mini-ITX-Desktop) bei um die 105 W: 161 fps Die ganzen Zahlen schwanken minimal, ist quasi jeweils ungefähr ein Mittelwert. Es geht ja auch nicht darum, ob es hier und da 1-2 fps weniger oder mehr sind, man sieht überall große Unterschiede. An der Stelle nochmal gesagt: Es geht hier um ein CPU-Limit, die GPU ist jeweils bei weitem nicht ausgelastet. Es spielt also keine Rolle, dass im Mini-ITX-Desktop eine schnellere 4080-Desktop-Karte verbaut ist, die fps-Differenzen kommen alleine durch die CPU-Unterschiede zu Stande. Übrigens werden die CPUs der beiden Laptops, auch im maximalen Leistungs-/Lüfter-Profil, im Dual-Load schon sehr heiß. Das künstliche Limit also z.B. mit ThrottleStop zu umgehen (sofern möglich) würde hier nicht viel bringen. Viel ist halt relativ, müsste man testen und schauen ob einem das reicht. Ich habe auch mal beim Blade die Leistung der GPU deutlich reduziert (weit unter 70 W), dann hat die CPU in FarCry 6 tatsächlich - scheinbar dauerhaft zwischen deutlich bessere 90-110 W geschwankt. Aber ab 70-80 W auf der GPU (und das braucht man ja mindestens schon...) fällt sie dann auf die genannten ca. 65 W ab. Wahrscheinlich irgendwann so oder so. 90-110 W bringen übrigens schon 12X-13X (je nach Laptop) fps bei FarCry 6, aber man wird sie halt nur in den ersten wenigen Minuten zu Gesicht bekommen... (im CPU-Limit in genau diesem Savegame bzw. an der Stelle im Spiel). Wie ich gestern schon gepostet habe, kann das MSI GT77 Titan oder auch das XMG Neo 16 (sicher auch 17) teilweise mehr als 65 W durchschnittlich abführen (laut computerbase.de), und das auch bei Dual-Load. Das Blade 18 und Scar G18 jedoch nicht, wenn die GPU stock oder auch mit UV arbeitet. Und das ist definitiv in manchen Spielen ein riesen Nachteil (heftigeres CPU-Limit hier und da). Ich glaube nicht daran, dass es beim m18 großartig anders sein wird. Und das MSI oder das XMG gefällt mir nicht bzw. lässt so viel Leistungsaufnahme auf der CPU auch nur in (für mich) viel zu lauten Leistungs-/Lüfter-Profilen zu, was ja bekanntermaßen für mich sowieso ein absolutes Ausschlusskriterium ist. Das würde natürlich auch das m18 betreffen. Zur Charakteristik der Lüfter Blade 18: Gar nicht so übel, auch wenn ich es nicht rauschig nennen würde. Rauschig ist es für mich erst, wenn ein Lüfter sich mehr rauschig anhört, als die anderen Geräusche. Ein Area 51m R2 würde ich als rauschig bezeichnen, auch wenn man dort noch was anderes raushört, aber das macht eben keine 50% aus. Richtig rauschig sind meines Erachtens z.B. gewisse Desktop-Lüfter von Noctua Scar G18: Schlechter finde ich. Hat noch weniger mit Rauschen zu tun, irgendwie mehrere unangenehme Geräusche. Zudem heftiges coil-whine, was ich beim Blade 18 nicht bemerkt habe. Es ist lauter wie bei einigen Highend-Desktop-GPUs... Auf die Lautstärke jeweils brauche ich nicht einzugehen - beide viel zu laut. Und leiser betreiben ist wegen zu starker Drosselung, sei es thermisch oder künstlich, nicht vernünftig möglich. Display: Allgemein: 18 Zoll wirken erstmal mega toll und modern (dünner Rand für so ein großes Display). Und man benötigt eigentlich auch kein 27“ mehr auf dem Schreibtisch, man ist ja näher dran. Aber viele von euch nutzen ja eh größere Displays als 27 Zoll auf dem Schreibtisch. Blade 18: Katastrophe, wie @pitha1337 schon schrieb. Flickering vom Feinsten (auch in Windows - das wird sicher noch irgendwann gefixt), dazu sieht man das „Netz“ des Displays. Bei der Auflösung bei 18“ müsste das nicht sein, ist einfach kein gutes Panel. Scar G18: Deutlich besseres / zufriedenstellendes Panel, ohne die Farben beurteilt zu haben. Ich gehe auch nicht auf Glowing und Clouding ein, das haben beide ganz gut gehabt... Anmutung & Qualität Blade 18: Natürlich super gut. Scar G18: In live deutlich wertiger als ich bisher so an Bildern und Videos gesehen habe. Ich habe es aber auch bisher nur kurz mit Tageslicht gesehen. Meine aber auch die Oberflächen und das wenig knarrt oder sowas. Sollte man sich aber auf jeden Fall live anschauen, wenn der Rest passt / es einen interessiert Auf Tastatur, Design, Sound, Webcam, Akkulaufzeit usw. gehe ich jetzt nicht ein. Wenn ihr Fragen habt, schießt los. Dann noch für @captn.ko Undervolting @ CPU: Hab wirklich keinen Nerv das noch zu testen, sorry, zumindest nicht mehr heute. Ich schicke es aber erst Montag oder so zurück, insofern ist noch Zeit. Wie im Artikel von gestern steht, geht beim Scar G18 nur 30 mV übers Bios, beim Blade sicher nicht mehr. Und selbst wenn, die CPU hat andere Probleme - auch mit UV… PL-Reduktion @ GPU: Ist bei beiden über z.B. Afterburner möglich, im Gegensatz zu älteren Ampere-/Turning-Laptops. Noch besser - vorallem für Teillast - ist natürlich die Reduktion der Maximalspannung (UV) über z.B. den Afterburner Curve Editor (was natürlich auch wie immer funktioniert). Computerbase hatte aber mit der PL-Reduktion über Afterburner teilweise Probleme, so dass sich nicht alle Spiele daran gehalten haben. Das habe ich jetzt nicht getestet. Fazit Wie ich hier geschrieben hatte, benötige ich (nun definitiv glücklicherweise) nicht mehr unbedingt ein Gaming-Laptop, und werde mein Mini-ITX-Desktop behalten bzw. einen Zweiten für meine Frau bauen (welcher das Area 51m R2 Laptop ersetzt. Für mobile Zwecke bzw. Mitnahme Urlaube / Hotels, wo wir nicht zocken, haben wir ein 16" Macbook Pro). Nach diesem Test sind im Prinzip alle Gaming-Laptops - unabhängig vom Lüfter-Profil - nicht für mich (als Haupt-Spiele-PC) zu gebrauchen. Ein Area 51m (R2) durfte noch im Silent-/Balanced-Profil ins CPU-Temperatur-Limit laufen (und das entsprechende Kühlsystem hierzu war vorhanden!), das hätte man wenigstens wieder so machen können, anstatt in leisen und mittleren Lüfter-Profilen künstliche Leistungsaufnahme(TDP)-Limits zu setzen. Schade, aber schon seit Jahren bei allen Herstellern und Modellen die ich kenne Normalität. Aber manche Modelle würden auch wegen schlechtem Kühlsystem nicht mehr Leistungsaufnahme im entsprechenden Lüfter-Profil schaffen, teilweise macht es also Sinn... außerdem liegen so nicht immer 95-100 Grad an, was den Käufer beruhigt. Im Vergleich zum 13900K im Desktop ist die mobile Variante - unabhängig der Leistungsaufnahme - deutlich langsamer wie man sieht. Aber das war ja schon immer so und wird wohl auch so bleiben. Das einzige was wirklich toll ist, ist natürlich die Effizienz bzw. die Perfomance der CPUs bei nur 45-65 W. Aber wenn man den Desktop-13900K auf 45-65 W reduzieren würde, wäre das ähnlich. Ich glaube man muss abschließend einfach festhalten und akzeptieren, dass eine hohe dauerhafte (PL1) Leistungsaufnahme von z.B. um die 100 W auf der mobilen CPU bei gleichzeitiger GPU-Load - wenn überhaupt (bei vielen Gaming-Laptops schon mal nicht) - nur mit sehr lautem Leistungs-/Lüfter-Profil möglich ist, was für mich absolut nicht in frage kommt. Es müsste sich vorher für mich also grundlegend das Kühlsystem ändern und/oder die Chips dürften nicht mehr so viel Leistungsaufnahme benötigen. Vorher kann wohl kein Gaming-Laptop mehr für mich in frage kommen. Eine absolute Ausnahme war eigentlich das Area 51m (R2). Möglicherweise auch das Clevo X170KM-G/XMG Ultra 17 (hatte ich nie getestet und wird wie das Area 51m nicht mehr mit aktueller Gen versorgt). Im Grunde hat sich also mit der neuen Gaming-Laptop-Generation jetzt gar nichts geändert. Die 18 Zoll Gaming-Laptops sind in allem etwas besser, aber eben halt auch nicht mehr. edit: Drei Hinweise unter den fps-Werten (FarCry 6 Test) hinzugefügt.
    10 Punkte
  5. Servus Gemeinde, Den Guide schreiben ich, da mittlerweile vermehrt die Frage nach einem Guide zum Undervolting aufgekommen ist. So brauchen wir dann nur noch verlinken Ich habe diesen Guide unter dem A51m Präfix erstellt, der funktioniert aber auch bei anderen CPUs. Ich hab es erst mal einfach gehalten, da ich kein Fan von zu umfangreichen Guides bin. Wenn doch etwas fehlt oder unklar ist, ergänze ich das natürlich gern. Inhalt: 1. Was ist ,,Undervolting,, oder zu Deutsch ,,Untervolten,,?: 2. Was brauche ich dafür? 3. Überblick über ThrottleStop 4. CPU untervolten mit ThrottleStop 5. CPU auf Stabilität testen 6. Und was bringts nun? 7. Ich erreiche 100 Grad bei Prime! Welche Optionen habe ich? Was ist ,,Undervolting,, oder zu Deutsch ,,Untervolten,,?: In erster Linie bezeichnet das ,,Undervolting,, das absenken der CPU Spannung. Ziel dabei ist es die Leistungsaufnahme und damit die Temperatur der CPU zu senken. Kaputt gehen kann dadurch erst mal nichts. Windows kann abstürzen wenn ihr zu weit geht. In ganz seltenen Fällen kann es auch die Windows Installation zerlegen. Hab ich bisher aber nur ein mal erlebt (bei Tausenden Bluescreens). Was brauche ich dafür? 1. erst einmal eine CPU die es erlaubt die Vcore zu verändern. Die Alienware Notebooks erlauben das alle. 2. die Software ThrottleStop 3. Prime95 zum Stabilität testen. Version 26.6 hat nun doch ausgedient. Mit der neusten Version kann man endlich AVX im Menü deaktivieren 4. OC Funktionen im AWCC abstellen. Das regelt TS jetzt Überblick über ThrottleStop Game - Hier habt ihr 4 Profile zur Wahl (das aktuelle heißt ,,Game,,), die ihr euch im Reiter FIVR einstellen könnt Settings - hier könnt ihr Grundlegende Settings verändern, die über alle Profile greifen Core i9 9900k - hier seht ihr Infos zur CPU, welcher Takt aktuell anliegt und welche Vcore (CPU Spannung) FID - Kern Multiplikatoren (*100 und ihr wisst den Takt einzelner Kerne) C0% - Auslastung pro Kern Temp - aktuelle Temperatur pro Kern Max - Maxwert Temperaturen pro Kern PKG Power - aktueller Verbrauch der CPU FIVR - Menü um die Profile zu bearbeiten CPU untervolten mit ThrottleStop GANZ WICHTIG: TS gehört nicht in den Autostart! Habt ihr ein Profil aktiv was sehr instali ist bekommt ihr bei jedem Bootversuch einen Bluescreen! Autostart würde ich persönlich nie für TS nutzen, aber wenn es sein muss dann nur wenn ihr ein stabiles (über 1-2 Wochen) Profil habt. 1. als erstes stellt ihr TS so ein wie oben auf dem Bild zu sehen, wenn noch nicht voreingestellt 2. Dann öffnet ihr das FIVR Menü Bei ,,Turbo Ratio Limits,, sieht man, das für unterschiedliche Lasten, unterschiedliche Taktraten eingestellt sind. Kann man so lassen, ich persönlich bin davon kein Fan. Begründung: beim Untervolten reduziert ihr die Kernspannung. Dabei kann es auch passieren das ihr in einen Bereich kommt der instabil ist und Windows abstürzt. Dann müsst ihr neu starten und die Spannung wieder einen Ticken erhöhen. Soweit kein Problem. Wenn ihr aber verschiedene Takte für verschiedene Lasten habt kann es sein das die eingestellte Spannung für den Allcore Boost 4700Mhz ausreicht, aber für den 1 Kern Boost 5000 Mhz zu niedrig ist --> Bluescreen sobald nur ein Kern mal mehr belastet wird. Verschiedene Last Takte auf Stabilität zu testen mit einem festen Spannungs- Offset ist fast unmöglich. --> Ich stelle daher immer alle Lastmultis auf den gleichen Wert. Das kann man leicht auf Stabilität testen und hat nachher keinen Ärger. --> stellt das FIVR Fenster jetzt so ein: alle Turbo Multis auf 47. Das entspricht 4700 Mhz, also dem Standard Allcore Boost des 9900k. User mit einem 9700K nehmen hier 46 also 4600Mhz. Dann aktiviert ihr bei ,,CPU Core Voltage,, das Häkchen und stellt den Offset erst mal auf -50mv. --> Das gleiche macht ihr bei CPU Cache --> Offset für CPU Core und CPU Cache müssen IMMER gleich sein. sind sie verschieden wird nur der niedrigste Wert genommen den beide noch gemeinsam haben. Also immer gleich einstellen 3. Apply und OK. Jetzt habt ihr eure CPU Spannung 50mv gesenkt. Jetzt testet ihr das Ganze auf Stabilität und geht dann weitere 10mv bei beiden runter. Dann wieder auf Stabilität testen. CPU auf Stabilität testen Da wir die Spannung angepasst haben müssen wir die CPU auf Stabilität testen. Ihr wollt ja schließlich nicht das euer PC mitten im Spiel abschmiert. Ich teste immer ohne AVX, das schont die CPU Prime stellt ihr folgend ein: und klickt auf OK. Das Programm belastet eure CPU auf allen Kernen. Wenn der Test läuft sollte das so aussehen: Achtet im Throttlestop immer schön auf die Temperaturen. Mal ein Peak auf 90 Grad geht in Ordnung. Im Schnitt sollten die Kerne aber nicht über 85 Grad pendeln (zwischen 75-85 Grad passt, weniger ist besser). Für den Stabilitätstest kann man auch im AWCC den Lüfter auf volle Leistung, oder zumindest Performance, stellen. Um sicher zu sein sollte der Test zum Schluss ca. 2h laufen. Dann könnt ihr das Setting im Alltag nutzen. Kommen dann Abstürze müsst ihr die Spannung noch mal leicht nach oben anpassen. Tipp: Zum ausloten wie weit man absenken kann, kann man auch erst mal nur 30 min als Schnelltest laufen lassen und dann weiter senken und wieder 30 min. Gibts einen Bluescreen wieder 10mv hoch und dann den abschließenden 2h Test um richtig zu testen. Im Anschluss könnt ihr zur Sicherheit noch 5-10mv drauf geben, falls euer Setting doch im Grenzbereich liegen sollte. Und was bringts nun? Wenn ihr sehen wollt was das UV bringt dann startet Prime einfach mal ohne TS ich habs mal bei meinem probiert (lief nur 5min aber der Unterschied soll ja nur zu sehen sein): stock ohne UV: 75-79 Grad und 119w Verbrauch UV: 65-68 Grad und 91w Verbrauch! Ich erreiche 100 Grad bei Prime! Welche Optionen habe ich? Ihr habt jetzt den maximalen Offset wo prime noch läuft gefunden aber erreicht trotzdem noch 100 Grad? Aber der captn1ko hat doch nur 65 Grad, ist mein PC defekt? Macht euch erst mal keine Sorgen. Eurer A51m ist nicht defekt. Ich habe nur sehr viel Geld für eine selektierte CPU ausgegeben, habe diese geköpft, mit LM versehen und wieder verklebt. Dazu einen Repaste durchgeführt. Es ist also kein Wunder das ihr höhere Temperaturen habt. Trotzdem habt ihr noch Möglichkeiten eure CPU zu optimieren! Ihr habt jetzt 3 Möglichkeiten: 1. Takt so lassen, mit den 100 Grad leben und die CPU sich selbst regeln lassen. Bei 100 Grad taktet die CPU selbstständig runter und wieder auf den vollen Boost wenn sie abgekühlt ist. 2. Den Verbrauch begrenzen -> das geht bequem mit ThrottleStop --> gedrosselt wird nicht nach Temperatur, sondern nach Verbrauch How to: öffnet das Menü TPL (Turbo Power Limit): Hier gebt ihr auf der Rechten Seite die gewünschten Limits an. - Das obere Feld gibt den Maximal Verbrauch für den ,,Long Boost,, an, also den Verbrauch den die CPU unbegrenzt lange haben darf - Das untere Feld ist der ,,Short Boost,, und gibt den Verbrauch an den eure CPU mal kurz haben darf. Das Time Limit stellt ihr darunter ein. Ich gebe immer die gleichen Werte ein. Ein kurzer Boost nützt mir nichts. In meinem Beispiel habe ich 70w eingetragen und im TS Feld PGK Power seht ihr das die CPU dieses Limit einhält. Obwohl der Allcore Boost auf 4700Mhz eingestellt ist, legt die CPU nur 4300mhz an, um die 70w einzuhalten. Hier habe ich nur 4 statt 16 Threads belastet (CPU Auslastung ca 40%) und die CPU kann volle 4700mhz boosten, da die 70w nicht erreicht werden. Da müsst ihr für euer System das Optimum finden. Beachtet aber hier das ihr eher etwas weniger UV macht. Die Takte springen wild umher und das kann man unmöglich vollständig stabil testen. Also eher 30-40mv weniger geben als bei festem Boost. 3. Den Takt soweit reduzieren, bis die Temperaturen auch bei Prime <90 bleiben. How to: wie oben geschrieben. Nur keine 47 oder 46 bei allen Kernen eintragen, sondern weniger um die Temperaturen weiter zu senken. Das war es auch schon. Viel Spaß dabei. Ich hoffe ihr kommt mit dem kleinen Leitfaden klar -- >Bei Fragen oder wenn etwas unklar ist einfach melden. Dann ergänze ich den Startpost. Grüße captn1ko p95v298b6.win64.zip
    10 Punkte
  6. Hallo zusammen, es ist soweit. Wie ich schon ab und zu fallen ließ, arbeite ich im Moment an einer Problemlösung für nicht mehr funktionierende Lüfter nach einem GPU Upgrade - bzw. es ist für alle praktisch, die eine größere Freiheit beim konfigurieren ihrer Lüfter möchten. Ich habe eine kleine Platine entwickelt, auf welche zwei bis drei Lüfter + Temperatursensoren gesteckt werden können. (Alternativ löten um in neueren Geräten Platz zu sparen) Was macht diese Platine? Die Platine misst direkt am Kühlkörper die Temperatur und kann, anhand einer eigenen Lüfterkurve, die Lüfterdrehzahl regeln. Die Temperaturmessung am Kühlkörper bietet einen großen Vorteil, den sämtliche anderen Regelungen (ob ab Werk oder per Software) nicht haben. Der Lüfter kühlt schließlich in erster Linie den Kühlkörper. Daher ergibt es keinen Sinn, dass der Lüfter bei jeder kleinen Temperaturspitze der CPU/GPU schon anspringt. Um das zu verhindern ist ab Werk eine programmierte Verzögerung mit drin, die aber immer nur ein Faustwert ist. Der nächste Vorteil der eigenen Regelung ist, dass man die Drehzahl viel tiefer einstellen kann, bis auf 200rpm runter. Aktuell schalten die Geräte zwischen leisem Lüftergeräusch und keinem Geräusch hin und her. Es ist aber möglich, den Lüfter so langsam laufen zu lassen, dass man im Idle Betrieb eine ausreichende Kühlleistung hat und den Lüfter trotzdem nicht hören kann. Bei meinem Testlüfter (18 R1) entspricht das ca. 650rpm. Test der Kühlleistung (natürlich mit meinem 18R1) Aus einem Grund, den ich weiter unten noch erkläre habe ich einen reinen CPU Test gemacht: Ich habe meinen i7 4930mx auf allen Kernen auf 4.1GHz übertaktet und den Laptop für gleiche Bedingungen zwischen den Tests zwei Stunden abkühlen lassen. Zwei Minuten nach dem Einschalten habe ich Prime 95 gestartet und die Zeit gemessen, nach der die CPU bestimme Temperaturen erreicht hat. Standard Lüfterprofil: 60°C nach 2s | 70°C nach 4s | 80°C nach 11s | 85°C nach 22s Eigenes Lüfterprofil mit SpeedFan: 60°C nach 2s | 70°C nach 13s | 80°C nach 49s | 85°C nach 1:55min Lüfterplatine: 60°C nach 2s | 70°C nach 19s | 80°C nach 1:12min | 85°C nach 2:15min Die Temperatur nach 10min war immer gleich (+- 2°C). Zu Beobachten ist, dass sich die Platine deutlich agiler verhält als die Standardregelung, was sich in Spielen positiv auf die Temperatur und Lärmbelästigung auswirken sollte. Zudem Wird der Lüfter gefühlt Stufenlos schneller/lauter was des Geräusch subjektiv angenehmer macht. Warum sollte? Wo ist der Spieletest und warum nur die CPU? Ich habe bei meiner Version 1 leider einen kleinen aber unangenehmen Rechenfehler gemacht. Ich habe vergessen einen Divisor zur Taktrate des PWM Signals hinzr zu rechnen, weshalb des PWM Signal ein laut hörbares Spulenfiepen erzeugt. Hätte ich den Divisor nicht vergessen hätte ich direkt an einen externen Oszillator für den Mikrokontroller gedacht und die Frequenz wäre im nicht hörbaren Bereich gewesen. So muss ich leider noch eine Version zwei entwickeln. Aber: Durch Fehler lernt man doch immernoch am besten. Was haltet ihr davon? Bitte haltet euch mit eurer Kritik nicht zurück! Ich kann alles von "So etwas dummes habe ich noch nie gehört. " bis "Cool das will ich auch" verkraften. Hilfreichen wären auch Ideen was so eine Platine eurer Meinung nach noch können sollte. Wie eingangs erwähnt ist die Platine hauptsächlich dafür gedacht, wenn man (wie ich) das Problem hat, dass die Lüfter nach einem GPU Upgrade nicht mehr laufen. Aber auch für eine bessere Einstellbarkeit kann sie verwendet werden. Da ich alles (Platine und Programm) selber entwickelt habe gibt es auch kein Copyright. Also falls jemand Interesse an der verbesserten Version 2 hat, gerne schreiben, dann rücke ich auch die CAD Daten und das Programm raus. Ich berichte hier natürlich, sobald die Version 2 angekommen, bestückt, programmiert und getestet ist. Bis dahin freue ich mich über eure Meinung dazu.
    9 Punkte
  7. Hallo Alienware Fangemeinde, die internen Lautsprecher in unseren Alienware Notebooks können nicht viel, von hochwertig sind diese schon Bauart bedingt weit entfernt. Doch wer wie wir, in anspruchsvolle Grafik so einiges an Euros investiert, der darf doch auch gerne in Sachen Musik und Ton anspruchsvoll sein. Darum soll sich dieser Thread drehen und ich möchte euch motivieren ein paar eurer Euros in eine adäquates Sound-Upgrade zu investieren. Hier kann man mit schon 400 Euro schon einen Quantensprung an Sound machen, nicht vergleichbar wie der Sprung von einer GTX960 auf eine RTX2080, sondern wie der einer alten 3DFX Voodoo Karte zur einer aktuellen RTX2080. Schon seit September letzten Jahres habe ich mich auf intensive Internetrecherche begeben, um alle Vor- und Nachteile der verschiedenen Systeme zu kennen. Gleiches hatte ich schon vor über 10 Jahren gemacht, als ich mir eine vernünftige Heimkino-Anlage erworben habe. Ja man merkt im Kern bin ich nen Analytiker, also alle Zahlen, Daten und Fakten gecheckt, um zum Schluß zwar sicher zu sein, daß vernünftiger Sound her muß und es kein Logitech oder Bose Companion System ist. Doch hatte ich nach dieser Recherche nur einen Teil meiner Fragen beantwortet, jedoch welches Budget man investieren sollte und welches System hier denn das Beste Preis-Leistungsverhältnis bietet wußte ich immer noch nicht?! Was habe ich aus meiner Recherche mitgenommen: Man muß natürlich die gesamte Kette berücksichtigen, von der Signalerzeugung über der Signalübertragung und Verstärkung bis zum Lautsprecher und der Hörraumoptimierung. Hier zeigt sich schon eine erste Schwachstelle bei unseren Laptops, so ist die onboard Soundkarte nicht sehr hochwertig, nicht gut vom Netzteil entkoppelt und der digitale Ausgang wurde uns auch schon wegrationalisiert. Für den Abhörplatz direkt am Schreibtisch eigenen sich Nahfeld-Monitore bzw. -Lautsprecher da diese so optimiert werden, daß man bereits bei geringer Entfernung ein harmonisches Klangbild hat. Auch sind Aktivboxen geeigneter als passive, da die Verstärker auf die Lautsprecher der Box optimiert sind und die Verstärkung nach der Frequenzweiche erfolgt. Wer hier auch einen zu starken Kabelsalat vermeiden will ist natürlich auch mit einem aktiven System besser bedient. Und da unsere Vorlieben für guten Ton und Musik sehr unterschiedlich sind, kommt auch noch der vielleicht wichtigste Tip, wenn auch nicht so leicht umzusetzen. So sollten wir mehrere Systeme vergleichen und das am besten am Abhörplatz. Dafür muß man aber etwas mehr Geld voraus investieren und sich die Zeit für einen Vergleich nehmen. Man kann natürlich auch für weniger Geld einen Sprung nach vorne machen, jedoch wollte ich ein adäquates Sound Upgrade zur ohnehin guten Grafik. Mein vieles Lesen von Rezensionen und Erfahrungsberichten sagte mir, daß dafür 400€ ein guter Einstieg sind. Ich habe mich so auch über unzählige Nahfeld-Lautsprecher eingelesen und eine ganze Menge in Fachgeschäften probe gehört. Hierfür eignet sich eure Lieblingsmusik in einer hochwertigen Aufnahme gut, da ihr diese gut kennt und so heraushören könnt wie viel mehr Details ihr einem System entlocken könnt. Für meinen Vergleich hatte ich mich dann für die folgenden 3 Aktivboxen entschieden, alle sollen sehr linear spielen können. Nubert nuBox A-125 zu 385€ Adam Audio T5V Studiomonitore zu ca. 320€ Yamaha HS5 Studiomonitore zu ca. 310€ Natürlich ist auch noch etwas Zubehör nötig gewesen, folgendes kann ich empfehlen: DELOCK Switch 4-port Audio Switch für ca. 14€, ein Umschalter ohne Knacksen, Brummen und sonstiger Probleme. Gute Audio Kabel und Adapter habe ich von KabelDirekt gewählt. Externe Soundkarte FiiO K3 für ca. 100€ Die drei Aktivboxen habe ich beim Fachhändler bestellt, die Nubert A-125 bekommt man nur direkt bei Nubert und sie waren gerade brandneu auf dem Markt, weshalb Vergleiche schwierig zu finden waren. Die Yamaha HS5 und Adam T5V hatte ich über Thomann bestellt, ein Fachgeschäft mit guter online Beratung und top Service mit dem Angebot ein System Daheim probe zu hören. Alle Boxen habe ich jeweils drei bis vier Tage im Einzeltest gehört und dann immer je zwei im Vergleich mit einem Umschalter für weitere ein, zwei Tage. Vom Aufbau standen die Boxen auf Schaumstoffabsorbern direkt auf dem Schreibtisch in einem HiFi Dreieck mit ca. 1,2 - 1,5m Abstand zu mir. Da keine der Boxen vorne einen Lautstärkeregler hat, habe ich mich für den FiiO K3 als externe Soundkarte mit digitalem Lautstärkeregler entschieden, dieser ist sogleich auch ein echt guter Kopfhörerverstärker. Die Nubert A-125 haben das umfangreichste Paket, eine Fernbedienung, analoger Chinch Eingang, digitale Coaxial und Toslink Eingänge sowie Bluetooth war mit dabei. Von der Größe war dieses System eigentlich meine Schmerzgrenze, die beiden Anderen waren jedoch größer. Leider hatten die Thomann keine interne Soundkarte, wie andere Systeme dieses Herstellers, sonst hätte man sich die externe Soundkarte sparen können, dafür sind die 385€ aber ein verdammt guter Preis. Der Sound der kleinen A-125 war nach kurzer Einspielzeit beeindruckend, sowohl bei Musik, beim Filme schauen oder im Spiel. Per Fernbedienung konnte man zudem noch zwei DSP-Programme wählen, geeignet für Musik und TV. Eine Besonderheit haben die Nuberts noch, der Verstärker sitzt nur in der Hauptbox, die als rechte Box ausgelegt sind. Um den Kabelsalat bei zu reduzieren habe ich diese jedoch nach links gestellt, leider gibt es keine Möglichkeit das im System anzupassen. Entweder man vertauscht die Kanäle im Laptop oder kann die digitalen Eingänge nicht nutzen. Ich bin daher über Chinch von der externen Soundkarte in die Box gegangen und habe dort die beiden Kanäle vertauscht. Die Adam Audio T5V waren mir zwar etwas zu groß aber optisch gefallen sie mir und angespornt von Testberichten mußte ich diese mal bei mir Daheim hören und ich muß sagen ich bin bis heute begeistert. Denn im direkten Vergleich mit den Nubert haben mich die Adam T5V einfach begeistert, Instrumente konnte ich deutlich besser orten und die Detailauflösung war nochmals eine Ecke besser und insbesondere die Mittendarstellung ist ein Genuß für meine Ohren und haben mir den ausschlaggebenden Punkt gegeben. Da es sich hier um Studiomonitore handelt sind sie auch für den Nahbereich optimiert und ich denke die Bändchenhochtöner und deren Übergangsfrequenz spielen machen den Sprung gegenüber der Nuberts aus, natürlich bietet auch das größere Chassis Vorteile. Das einpegeln der Lautstärke wird an Rückseite über Regler gemacht, auch die Höhen und Tiefen kann man separat auf den Hörraum optimieren, eine Möglichkeit, die die Nuberts nicht haben. Da meine linke Box dichter an der Wand ist war hier eine Anpassung leicht zu machen, bei den Nuberts mußte ich im Laptop zumindest die Balance leicht anpassen, was jedoch nicht ganz so optimal ist. Die Yamaha HS5 sind als Studiomonitore technisch mit den Adam T5V zu vergleichen, auch hier konnte man jede einzelne Box separat anpassen. Jedoch wollte mich der Ton der Yamaha einfach nicht überzeugen, nicht nachdem ich die Adam T5V gehört habe. Für mich kam beim Musik hören keine Emotion auf. Soviel zu persönlichen Vorlieben, auf dem Papier und über Testberichte hätte ich das niemals heraus bekommen können. Wie man unschwer heraushören kann habe ich mich dann für die Adam Audio T5V entschieden, mittlerweile auch schon um den passenden Subwoofer Adam T10S ergänzt und es treibt mir Tag für Tag die Freude in's Gesicht, wenn ich wieder viel Musik am Laptop höre, ein paar Serien streame und beim Spielen mich nun soundtechnisch mitten drin fühle. Stimmen hört man sehr deutlich ohne daß ich in Spielen die Musik herunter regeln muß und die Töne werden präziser geortet als ich dachte. Da war dann doch das Soundsystem die Schwachstelle und nicht die schlechte Umsetzung der Soundortung im Spiel. Einen letzten Vergleich habe ich noch, so fühlt sich der Schritt für mich fast wie der Sprung vom einfachen Midi-Sound zu meiner ersten Sound Blaster 16 Karte in 1993 an, daß war ein echter und anhaltender Wow-Effekt. Übrigens mein erstes Spiel welches auch den Sound Blaster unterstützte war damals Sam'n'Max wer kennt's noch? Zuletzt noch ein paar Impressionen. Ich bin für Fragen offen und möchte zur Diskussion und dem Erfahrungsaustausch einladen.
    9 Punkte
  8. Da das Thema in der Community scheinbar gut angekommen ist, habe ich mir gedacht, dass man vielleicht noch etwas tiefer in die Materie einsteigen kann. Schadet ja nicht, wenn man bisschen mehr über sein Notebook weiß. Als Thema will ich heute das VRM der CPU etwas genauer betrachten, denn schließlich wird Leistung nicht nur durch Hardware allein definiert, sondern die Powerlimits spielen ebenso eine wichtige Rolle und entscheiden was sich die Hardware "gönnen" darf. Oftmals reicht schon ein Blick auf's Netzteil um zu erahnen, wo wahrscheinlich eine höhere Leistung zu erwarten ist. Es ist schon ein Unterschied ob die CPU, also in dem Beispiel der i9-8950HK, in einem schmalen Notebook mit'm 75-120w Netzteil eingebaut ist oder in einem Gaming-Notebook mit'm 330w Netezteil. Natürlich sind Kühlung usw. auch ein wesentlicher Faktor, aber hier soll erstmal primär über die (strom-) technische Voraussetzung von der Leistung der CPU/ GPU gehen. Was VRM betrifft, einfach bisschen hoch scrollen, dort steht grob alles zum VRM und welche Komponenten es umfasst. Als Beispiel nehme ich ein Mainboard vom m15 R1. In dem Beispiel ist ein i9-8950Hk zu sehen, wobei der i7-8750H die gleichen VRM Komponenten hat. Wenn man sich das Powerlimit beider CPUs im m15 R1 anguckt, verwundert es einen auch nicht. Der i7-8750H hat ein Powerlimit von 75w/ 90w und der i9-8950HK von 78w/ 90w. Für 3 Watt wird man sicher kein anderes VRM-Layout benötigen, zumal die 90w im PL2 ohnehin identisch sind. Für 210w, wie es im Area51m zu finden ist, dagegen schon eher. Dazu komme ich ebenfalls später. Betrachten wir erstmal die Spannungsversorgung der CPU vom m15 R1: Bei dem Voltage/ Phase-Controller handelt es sich um den "NCP 81215" und bei den MOSFETs "FDPC 5018SG" von ON Semiconductor. Ich habe euch mal das technische Datenblatt zu den beiden Komponenten hochgeladen. Reinschauen lohnt ? Die Arbeitsweise des Voltage-Controllers veranschaulicht folgendes Beispiel ganz gut: Die MOSFETs (die viereckigen schwarzen Dinger) sind im Inneren mit verschiedenen Komponenten aufgebaut. Neben dem Driver, findet sich ein High- und ein Low-FET. Der High-FET ist für die hohe Spannung (12/ 5V) verantwortlich und der Low-FET für die niedrige (CPU-typische) Spannung (0,8xx - 1,xxV). Zusammen mit dem Induktor (Spulen-Symbol im Schaubild) ergibt das eine Phase. Die Phasen versorgen die CPU genau mit der Spannung, die sie für den Betrieb benötigt. Auf dem PCB schaut das ganze so aus: Man kann den Bereich der Phasen in zwei Bereiche teilen. Als Vcore habe ich hier alle Phasen gekennzeichnet, die rein für die CPU benötigt werden. Dieser Bereich ist auch am stärksten ausgebaut, weil die CPU hier besonders stromhungrig werden kann, wenn sie in den Boost geht oder übertaktet wird. Man kann grob behaupten, dass diese Phasen die eigentliche Leistung der CPU versorgen. Nun läuft die CPU aber mit unterschiedlichen Spannungen, weil die CPU im Inneren verschiedenen Komponenten hat, die verschiedene Aufgaben erledigen. Als Beispiel wäre hier die iGPU, SystemAgent, IMC usw. zu nennen. Im DIE-Shot ist die Unterteilung gut zu erkennen: Deswegen gibt es im Bereich der Phasen noch einen zweiten Block, der sich auch optisch unterscheidet. Grundsätzlich kann aber sagen, dass dieser Aufbau auf sehr vielen PC- und (Gaming) Notebook zu finden ist. Das sieht beim Area51m nicht viel anders aus. Wobei die Vcore-Seite hier massiv ausgebaut ist. Gut, ein Powerlimit von 210w und ne Desktop-CPU bis hoch zum 9900K muss bei 5,0 GHz nun mal versorgt werden. Wie immer hoffe ich, dass ich euch das Thema halbwegs verständlich rüber bringen konnte. Bitte beachtet, dass nicht alle hier genannten Informationen zwingend richtig sein müssen. Man findet, speziell Notebooks betrifft, nur sehr wenige Informationen. Ich versuche das aber bestmöglich von der Desktop-Welt auf die Notebook-PCBs zu abstrahieren, da es technisch gesehen nicht anders funktioniert, nur halt mit anderen Restriktionen. Quellangaben: - CPU DIE Shots - ON Semiconductor - Buildzoid's Channel MOSFET FDPC5018SG.pdf VC_BRD8025-D-1381870.pdf
    9 Punkte
  9. Kurzes, knackiges How-To Repaste M17x R4 mit Liquid Metal. Benötigte Materialien: TG Conductonaut Scotch 33+ Iso-Tape Wärmeleitpaste* (optional) Wärmeleitpads (optional) Werkzeug iFixit-Set (optional) Werkzeug Hama (optional) * nur als Auslaufschutz 1. Backplate entfernen. Akku entnehmen, markierten Kreuzschrauben rausdrehen und Backplate nach hinten raus ziehen. 2. Lüfter ausbauen. Markierte Kreuzschrauben rausdrehen und Lüfterkabel abziehen. Anschließend Lüfter entnehmen. Das Herausnehmen der Lüfter kann unter Umständen etwas fummelig sein. 2.1 Absaugen. Jetzt ist ein guter Zeitpunkt Lüfter, Lüftergehäuse und Kühlrippen abzusaugen. 2.2 Ansicht alter WLP 3. Reinigung der DIE's und Kühlkörper. Zum reinigen benutze ich immer ein nicht fuselndes Tuch und Desinfektionsmittel (oder Isopropanol). Man kann aber auch natürlich Reinigungskits wie die von Artic Silver nehmen. Aggressive Mittel wie Verdünner, Nagellackentferner sollte man nicht unbedingt benutzen. 3.1 Sollte die alte WLP im Bereich der GPU bei den kleinen Transistoren sehr schwer raus gehen, ist es ratsam diese dort zu lassen. Die Gefahr ist zu hoch, dass beim reinigen, sich einer der Transistoren von der Platine löst. Wichtig ist, dass der DIE sauber ist. 4. Kontakte abkleben. Da LM elektrisch leitend ist, müssen alle umliegenden Teile um den DIE abgeklebt werden. So, dass im Fall eines Auslaufens nichts passieren kann. Optimal kann man auch vorher das ganze mit 3-4 Schichten Nagellack versiegeln um ganz sicher zu gehen. 5. Extra-Schutz (Optional). Wenn man das Notebook oft mit sich rumträgt, kann man mit der billigen WLP eine extra Auslauf-Schutzschicht auftragen. So wie auf dem Bild. Ist aber nicht zwingend notwendig. 6. Da LM auf keinen Fall mit Alu in Berührung kommen darf, habe ich die Seiten (Spaltmaße von Kupfer zu Alu) mit der billigen WLP abgedichtet. Nagellack kann man an dieser Stelle aber auch nehmen. Bei neueren Notebooks braucht man das in der Regel nicht mehr machen, weil die Kupferfläche des Kühlblock wesentlich größer ist. 7. Wärmeleitpads erneuern. Jetzt kann man die Gelegenheit nutzen und die Wärmeleitpads erneuern. Zu beachten ist, dass man die alten Größen und Dicken einhält. Sonst passt der Kühlkörper nicht mehr exakt auf den DIE. Es empfiehlt sich die neuen Pads zu erst auf die Bauteile (Spannungswandler, Voltage-Controller, VRAMs, MOSFETs etc) zu legen und am Ende den Kühlkörper drauf zu montieren. So geht man nicht die Gefahr ein, dass die Pads vom Kühlkörper fallen wenn man ihn bei der Montage umdreht. Nicht vergessen die Schutzfolie vorher abzuziehen. 8. LM auftragen. LM mit dem Applikator (ähn. Ohrstäbchen) auftragen. Wichtig, es ist nur eine kleine Menge notwendig. Anders als bei WLP, müssen bei LM beide Seiten, sprich DIE und Kühlkörper, bestrichen werden. 9. Endmontage. Alles in umgekehrter Reihenfolge wieder zusammen bauen, fertig. Tipp, Heatsink-Schrauben über Kreuz nach und nach anziehen bzw. nach den Nummern. Niemals eine Schraube direkt fest anziehen. Schlusswort: Wie einem klar sein sollte, trägt man die Verantwortung bei so einem Repaste selbst. Mein Guide dient nur als Anleitung/ Hilfestellung. Mitdenken und Augen offen halten ist Voraussetzung bei so einem Vorhaben. Man kann die Sachen so machen, wie ich sie beschrieben habe, muss es aber nicht. Nichtsdestotrotz, viel Spaß beim Repaste ?
    8 Punkte
  10. Nach dem der erste Versuch die Wärmeleitpads zu testen fehlschlug, beschloss ich die Sache erneut anzugehen. Diesmal aber etwas praxisbezogener, genauer und mit einer besseren Vergleichbarkeit. Vorwort Zunächst ein paar Sachen, die ich im Vorfeld beleuchten möchte damit man meine Entscheidungen und mein Vorgehen besser nachvollziehen kann. Eins aber gleich vorweg, sicher hätte man vielleicht den Test noch besser oder noch genauer machen können, aber so ein Test, in so einem Ausmaß durchzuführen ist sehr zeitintensiv und äußerst mühsam. Gerade bei einem Notebook, welches man immer wieder komplett zerlegen muss um das Wärmeleitpad zu tauschen. Angesichts der insgesamt 50 Tests bitte ich das zu berücksichtigen. Ansonsten Kritik, Lob, Verbesserungsvorschläge usw. nehme ich immer gerne an und jedem steht es frei eigenen Tests zu machen. Mit welchem Gerät wurde getestet? Da ich den Versuch so praxis- und anwendungsnah wie möglich nachstellen wollte, habe ich mir verschiedene Notebooks (MSI, Clevo, Toshiba) als Testgerät hierfür besorgt. Meinen AW17 R5 wollte/ konnte ich aus verschiedenen Gründen nicht dafür nehmen. Schlussendlich fiel die Entscheidung auf das Toshiba Notebook, genauer gesagt auf das Toshiba Satellite C70D-A-11D. Ein entscheidender Grund war die Heatsink. Diese war beim Toshiba vollständig aus Aluminium (bis auf die Heatpipe), sowie im Anwendungsgebiet der Wärmeleitpads. Mit Kupfer wollte ich nicht die Gefahr eingehen, dass ich mir vielleicht die Ergebnisse versaue bzw. nicht so eine Vergleichbarkeit besteht wie mit Aluminium. Ein weiterer Grund für das Toshiba C70D war die Befestigung der Heatsink. Die Schrauben hatten alle einen festen Endpunkt und der eigentliche Anpressdruck wurde über die Federn ausgeübt. So konnte ich sicher sein, dass ich bei allen Tests immer den gleichen Anpressdruck habe. CPU und GPU befanden sich beide auf einem Chip: AMD A6-5200 APU with Radeon HD 8400 Graphics Was genau wurde getestet? Getestet wurden verschiedene Hersteller der Wärmeleitpads, ebenso auch die verschiedenen Stärken/ Dicken, aber auch anderes Zeug wie K5-Pro oder Wärmeleitklebeband und letztendlich noch eine Wärmeleitpaste als direkter Vergleich zu den Pads. Hier mal eine kurze Übersicht: Thermal Grizzly Minus Pad 8 in 1,0 und 0,5 mm (Hersteller-Link) (8 W/mK) AlphaCool Eisschicht in 1,5, 1,0 und 0,5 mm (Hersteller-Link) (7 /11 /17 W/mK) Arctic Thermal Pad in 1,5, 1,0 und 0,5 mm (Hersteller-Link) (6 W/mK) EKWB Thermal Pad G in 1,0 und 0,5 mm (Hersteller-Link) (3,5 W/mK) Computer Systems K5-Pro (Hersteller-Link) (>5,3 W/mK) Wärmeleitklebeband 0,2mm (Kauf-Link) Noctua NT-H2 Wärmeleitpaste (Hersteller-Link) Wie wurde getestet (Testbedingungen)? Hierzu habe ich einen IDLE und einen LOAD Test gemacht. Bei jedem Wärmeleitpad habe ich diese beiden Tests jeweils zwei Mal gemacht, sprich vier Tests pro Wärmeleitpad. Mit dieser Methode wollte ich gegebenenfalls Messfehler ausschließen und die Genauigkeit erhöhen. Alle Tests liefen 15 – 16 Minuten und es wurde penibel darauf geachtet, dass alle Fenster an der gleichen Stelle sind, der Log immer an derselben Stelle losgeht, immer die gleichen Einstellungen geladen sind usw. Schließlich wollte ich diesmal alles so sauber wie möglich testen. Für den IDLE-Test habe immer ein Youtube-Video laufen lassen. Es war ein 15-minütiges Countdown-Video mit Alarm. Das hat das Loggen etwas vereinfacht und das Video hat verhindert, dass das Notebook den Bildschirm abdunkelt oder in den Energiespar-Modus geht oder sonst was. Bei Notebooks wie Toshiba, Acer usw. ist immer sehr viel Bloatware mit installiert. Da weiß man nie so wirklich wie sich das Notebook unter gewissen Umständen verhält. Deswegen was Einfaches, was kaum Last erzeugt und zuverlässig funktioniert. Für den LOAD-Test habe ich Cinebench R20 genommen. Ich habe ihn gewählt, weil dieser 100% Last auf allen Kernen erzeugt und glücklicherweise mit dem alten Toshiba Notebook ebenfalls 15 – 16 Minuten geht. Es wurde immer erst der IDLE-Test und anschließend er LOAD-Test durchgeführt. Dann würde halbe Stunde gewartet und wieder IDLE- und LOAD-Test. Bei allen Tests habe ich auch immer darauf geachtet, dass die CPU Package Power (Gesamtverbrauch) ihre „bestimmten“ Werte erreicht. So konnte ich ziemlich sicher sein, dass der Test sauber durchgelaufen ist. Dazu im Chart dann mehr. Außerdem wurde auch auf die Raumtemperatur geachtet. Dank der Belüftungsanlage in der Wohnung und des geringen Stromverbrauchs (= Abwärme) des Notebooks, betrug sie bei allen Tests konstant 22 – 23 °C. Auf allen Tests stand das Notebook auf einem Cooler Master U3-PLUS Kühler OHNE Lüfter. Damit wollte ich verhindern, dass sich das Gehäuse bzw. die Tischplatte aufheizt oder sich Stauwärme oder dergleichen bildet. Außerdem war das Arbeiten in der Position für mich angenehmer. Geloggt wurde das Ganze übrigens mit HWinfo und später in Excel übernommen. Nun zu dem Wichtigsten, dem Ergebnis. Wie ich schon vermutet habe, erzeugen dickere Pads mehr Widerstand und dementsprechend schlechtere Temperaturen. Wobei die Eisschicht-Pads von Alphacool bei der 1,0mm Dicke die Nase vorn hatten. In der Dicke 0,5mm gibt unter den Herstellern kaum ein Unterschied. Sie performen alle relativ gleich gut, auch K5-Pro und die Pads von Arctic. Außer die Pads von EKWB, die waren in allen Tests verhältnismäßig schlecht, leider. Ich habe da auch einen Verdacht, dazu aber später mehr. Das Wärmeleitklebeband hat mich schon ein wenig überrascht. Obwohl es sehr dünn mit 0,2mm war, war es so dermaßen schlecht, dass ich mir zwei weitere Tests gespart habe. Dort wurde selbst im Cinebench weiter runtergetaktet als im idle. Erst dachte ich, hmmm vielleicht ist es zu dünn und hat sich gelöst, aber bei der Demontage hat das Tape verdammt gut geklebt und ich habe die Heatsink nur mit sehr viel Kraft abbekommen. Also eine Verbindung bestand definitiv. Für eine bessere Lesbarkeit habe ich noch die Spalte "°C pro erzeugten Watt" aufgelistet, weil nur die nackten Zahlen manchmal täuschen können. Natürlich erzeugt weniger Last (Package Power) auch weniger Wärme und man muss das in die Bewertung mit einfließen lassen. Genauso auch die Drehzahl der Lüfter, wobei diese sowohl im IDLE als auch im LOAD überwiegend immer gleich war. Jetzt mal Noctua und das Wärmeleitklebeband außen vorgenommen. Obwohl ich darauf geachtet habe, dass alles so sauber wie möglich getestet wird, ist mir ein Ausrutscher leider trotzdem rein gekommen und zwar bei der Nr. 41. Normalerweise wurde im IDLE-Test immer so um die 3,xx Watt erzeugt. Hier war es knapp das Doppelte, weil wahrscheinlich irgendein Hintergrundprozess lief. Glücklicherweise habe ich aber immer einen zweiten Test gemacht und dieser entspricht mehr allen anderen IDLE-Tests im Vergleich. Deshalb bitte nur diesen werten. Da ich nicht genau weiß wie klein das Chart bei euch auf dem Bildschirm dargestellt wird, habe ich es vergrößert und in der Mitte geteilt. Somit sollte man alle Werte erkennen können. Interessant finde ich, dass die Hersteller mit ihren Wm/K - Werten sich immer gegenseitig überbieten und die teuren Pads angeblich so viel besser die Wärme weitergeben als die günstigen. Vergleicht man die W/mK-Werte der Hersteller und mein Ergebnis, kann ich mir nur schwer vorstellen, dass die W/mK-Werte tatsächlich einem genormten Test entsprechen. Gut, aber das kennt man ja schon von Wärmeleitpaste und Lüfter. Hersteller testen gerne unter ihren "eigenen" Testbedingen um das eigenen Produkt besser dastehen zu lassen. Wärmeleitpaste kann man noch einfach selber testen und es gibt dazu auch etliche Videos auf Youtube, aber zu Wärmeleitpads gibt es kaum ausführliche Tests. Und da man das nicht so einfach selber testen kann, musste man also hoffen, dass der Mehrpreis für das Produkt auch gerechtfertigt ist. Deswegen habe ich diesen Test gemacht.
    8 Punkte
  11. Dieses Thema ist schon relativ lange bekannt und wird auch schon länger in diversen Forenkreisen diskutiert. In unser Forum hat es Plundervolt, zumindest bis jetzt, noch nicht geschafft, da die daraus resultierenden Nachteile aktuell keine Alienware-Geräte betreffen, jedenfalls noch. Da sich das aber in Zukunft ändern könnte und das zum Teil für uns erhebliche Nachteile hat, wollte ich das Thema zumindest schon mal ansprechen. Was genau ist Plundervolt? Plundervolt bezeichnet eine Sicherheitslücke bei Intel Prozessoren, wodurch es möglich ist Schadcode auszuführen. Die Sicherheitslücke betrifft Intel's Software Guard Extensions, abgekürzt auch SGX genannt. Dieser Punkt befindet sich bei uns im BIOS unter dem Reiter Advanced. Welche Nachteile hat es für mich? Intel und diverse andere Hersteller haben schon reagiert und bieten BIOS-Updates an, die wie üblich, irgendwelche Sicherheitslücken schließen. Das Problem ist dabei, dass man durch so ein Update, die Möglichkeit verliert, irgendwelche Änderungen an der CPU über ThrottleStop oder Intel XTU vorzunehmen. Natürlich auch über's BIOS selbst. Was bedeutet, dass man unter anderem nicht mehr Undervolten oder andere Voltage-/ Core-Settings durchführen kann. Ich kann jetzt nicht sagen, welche Hersteller genau damit schon angefangen haben. Soweit ich weiß, trifft das zumindest schon mal auf HP zu. User mit den Omen Notebooks kotzen sich in Foren (z.B. NBRF) darüber aus, dass die CPU ohne undervolting deutlich heißer läuft (logisch) und es keine Möglichkeit mehr gibt, das Setting mit dem SGX Update anzupassen. Außer man downgraded die BIOS-Versoin, sofern das möglich ist. Mittlerweile finden sich auch immer mehr Beiträge im Alienware-Bereich des NBRF, wo dieser Punkt jedesmal nach einem BIOS Update gefragt wird. -Beispiel- Wenn ich jetzt an meinen R5 und dem i9-8950HK denke, dann wäre so eine Beschränkung ziemlich besch***en für mein System und ich denke, ich spreche da nicht nur für mich alleine. Das BIOS Updates immer mit einer gewissen Vorsicht zu genießen sind, ist an sich nichts neues. Wenn jetzt aber solche Einschränkungen mit den BIOS Updates kommen, würde ich mir ein Update zwei mal überlegen. Deshalb wollte ich schon mal sicherheitshalber drauf hinweisen. Wer sich in das Thema weiter einlesen möchte und detaillierte Informationen sucht, kann sich folgende Links anschauen: Weiterführende Links und Quellen: - Plundervolt.com - ZDnet.com (Plundervolt) - Bob (Youtube) - Intel Software Guard eXtensions (Intel)
    8 Punkte
  12. *keine Spoiler* Ich habe Cyberpunk 2077 seit über einer Woche durch, wollte die Eindrücke aber etwas sacken lassen, bevor ich etwas dazu hier schreibe. Ich hab das Spiel als männlicher V mit einem Fokus auf Itelligenz gespielt, also als Netrunner/Hacker. Mit meiner GTX 1080 musste ich die Grafik runter drehen, 2560x1080 bei hohen Details mit 30 bis 40 FPS. Während dem Spiel gab es viele Stellen die mich beeindruckt habe und direkt nach dem Ende war ich richtig geflascht. Was für ein Ritt . Egal ob es die Grafik war, die Gestaltung der Stadt, die Musik oder die erzählte Geschichte des Hautstrangs und auch einiger Nebenmissionen. Die Hauptgeschichte hat mir durchgehen sehr gut gefallen. Dabei lernt man zwei Charaktäre kennen, mit denen man jeweils eine Nebengeschichte erleben kann. Beide haben mir gut gefallen. Dazu gibt es noch vier größere Questreihen, die ich erlebt habe und eine eigene, kleine Geschichte erzählen, wovon eine ein sehr verstörendes Ende nehmen kann (war ein sehr goßer WTF Moment bei mir). Ein paar weitere Auftraggeber erscheinen immer mal wieder, vergeben aber eher wiederkehrende Aufträge mit ein paar Highlights, mit denen man die Stadt aber gut kennen lernt. Eine kleine Quest muss ich hier empfehlen: Taxiservice Delamain. Machen! Alles habe ich in Night City nicht gesehen, nach 55 Stunden lief bei mir der Abspann. Neben der Hautgeschichte habe ich alle größeren Nebengeschichten und ein paar andere Quests erledig. Das waren die intensivsten 55 Studen, die ich in den letzten Jahren gespielt habe! Es war auch das erste umfangreiche Spiel, das ich innerhlab knapp 3 Wochen durch hatte. Auch wenn der Start für mich durch die Berichterstattung der vielen Fehler im Spiel etwas getrübt war, habe ich es definitiv nicht bereut direkt bei Release zu spielen. Einen Plotstopper hatte ich nicht. Ein Mal konnte ich optionale Charaktäre nicht ansprechen. Ansonsten nur kleinere Glitshes. Im nachhinein fällt mir schon auf, dass die offene Welt und Stadt nicht and GTA V herankommt. The Witcher 3 hat ein rundere aund ausgereiftere Geschichte erzählt. Auch waren die Nebenquest bei der The Witcher 3 abwechslungsreicher als in Cyberpunk. Das ist aber Kritik auch höchstem Niveau, denn die beiden Spiele sind das Beste, was in den letzten Jahren auf dem Markt gekommen ist. Wenn es einen DLC gibt oder "New Game Plus" kehre ich auf jeden Fall zurück nach Night City. Bis dahin hat Nvidia und AMD es auf jeden Fall verpasst mir eine neue Grafikkarte zu verkaufen, denn die brauche ich jetzt erstmal nicht mehr
    8 Punkte
  13. Jeder, der sein Notebook mit LM repastet hat, wird vielleicht schon mal über die Frage nachgedacht haben. Der Heatspreader, der direkt über'n DIE sitzt, ist aus Kupfer. Dem wird nicht viel passieren, aber wie sieht es aus, wenn das LM ausläuft und auf den Alublock trifft? Schließlich sitzt der Kühlkörper, im eingebauten Zustand, kopfüber und wenn das LM auslaufen würde, dann erstmal über das Aluminium. Bekanntlich sind LM und Alu nicht die besten Freunde (Video). Triff LM direkt auf Alu, entsteht über die Zeit eine chemische Reaktion und das LM "frisst" sich durch das Metall. Ist das Aluminium vernickelt/ versiegelt, sollte man keine Probleme bekommen. Um dem ganzen auf den Grund zu gehen, habe ich mir gedacht, dass ich zwei meiner Heatsink für diesen Test opfere. Die eine Heatsink kommt aus dem R4 (GTX 1070 Version) und die andere aus 'nem R3. So sehen die beiden aus: Ich habe die beiden Kühlkörper mit dem Magneten abgetastet. Beim R3 Kühlkörper sind Schrauben und Lüfterabdeckungen magnetisch. Beim R4 Kühlkörper sind ebenfalls die Lüfterabdeckungen magnetisch, sowie die Befestigungsarme. Heatpipes, Alublock, Nieten und Heatspreder (Kupferplatte) sind nicht magnetisch. So konnte ich schon mal prüfen, wie viele verschiedene Metalle überhaupt auf der Heatsink verbaut sind und wie das LM auf die verschiedenen Materialien reagiert. Zum Vergleich habe ich hier eine Heatsink aus dem R4, die schon länger mit LM unterwegs war. Wie lange genau, muss @espresso uns verraten. Auf den Bildern sieht es nur schlimmer aus, als es ist. Der Heatspreader hat sich zwar verfärbt, aber kühlungstechnisch hat es keine negativen Auswirkungen. Getestet habe ich mit TG Conductonaut. Hinzu kam noch TG Kryounaut, Nocuta NT-H1, Billig-WLP von ebay und paar Kühlkörper. Im Test habe ich versucht, so viele Möglichkeiten und Variationen wie möglich abzudecken. Im nächsten Bild habe ich versucht über dem Heatspreader und dem Alublock das LM aufzutragen. Auf dem Kupfer blieb das LM recht schnell kleben und ließ sich gut verteilen, aber auf dem Alu wollte es einfach nicht haften. Ich habe locker 5-6 Minuten versucht das LM auf's Alu aufzutragen, aber es wollte nicht so richtig. Es wollte einfach nicht vom Wattestäbchen. Später habe ich es dann direkt aus der Spritze aufs Alu tropfen lassen. Eine weitere Sache, zu der man keine Info findet, ist, wie verhält sich LM mit WLP. Auf dem Kupferplättchen ist Noctua und LM. Lüfterabdeckung wurde natürlich auch nicht verschont. Unwahrscheinlich das dort jemals LM hinkommt, aber neugierig bin ich schon, ob es negativen Auswirkungen hat. Rechts, neben dem Kupferplättchen ist WLP und LM vermischt. Auch hier habe ich es großflächig aufgetragen und bewusst über die Kante gegangen. Eine Stelle habe ich mit Schleifpapier angeraut und LM drauf getan. Verschiedene WLPs auf dem Alublock. Von Oben nach unten 1. Noctua + LM vermischt, 2. Billig-WLP, 3. TG Kryonaut Da ich die Kühlkörper so nicht einbauen kann, habe ich mir überlegt, dass ich die Kühlkörper jeden Tag 1-2 Mal mit der Heißluftpistole aufheize. Zwar simuliert es nicht exakt die thermische Belastung, wie sie halt im Notebook, im Betrieb stattfindet, aber zumindest habe ich mal eine Aufheiz- und Abkühlphase. Bin mal gespannt in wie weit das LM Einfluss auf die Heatsink hat. Ich halte euch auf dem Laufenden.
    8 Punkte
  14. Ich lass ihr ihre Freiheiten, sie lässt mir meine. Das funktioniert recht gut und sie mag glücklicherweise Selbstgebasteltes^^ 1. Die stehen schon richtig in meiner Werkstatt ? 2. Die Sommerräder sind von Innen und Außen Tip Top sauber, also kein Problem. 3. Brauchte ich einen hohen Tisch, wo ich auch von unten ran komme. Bei den ganzen Kabeln war das echt eine Erleichterung. Schließlich wiegt das Bild mit allen Teilen nicht gerade wenig und bevor ich das riesen Bild 20x drehe und Gefahr laufe die Mainboards zu beschädigen, konnte ich so schön alle Kabel vorher ziehen und das Bild nur einmal am Ende drehen. So, wie versprochen geht's im zweiten Beitrag weiter. Eine Sache hatte ich noch vergessen und zwar die Befestigungspunkte. Diese wurden mit Einschlagmuttern ins Holz gezogen (nicht reingekloppt), 6 Stück insgesamt und überall da, wo die halbrunde Stelle der Platine ist bzw. da wo etwas mehr Platz gelassen wurde. Soweit fertig kam dann die heiße Phase.....der erste Test. Ich habe gebetet und gehofft das alle Stripes leuchten, idealerweise auch alle Phasen (Warmweiß, Kaltweiß, Neutralweiß) und im besten Fall auch alle synchron. So sah das ganze dann im ersten Test aus. Gott sei Dank lief alles wie erwartet. Dimmen, Warmweiß, Kaltweiß usw, alle Funktionen liefen wunderbar. Nun konnte ich mein Projekt langsam fertigstellen und das Bild an die gewünschte Stelle im Wohnzimmer aufhängen. So sieht das ganze unter verschiedenen Bedienungen/ Lichttypen aus: Am Tag ohne Beleuchtung Abends mit warmweißer Beleuchung Abends mit kaltweißer Beleuchtung Abends mit Zimmerbeleuchtung Ich weiß nicht wieso, aber die Handycam verfälscht irgendwie die Dimensionen. Auf den Bildern sieht der Raum sehr klein aus. Um grob eine Vorstellung zu bekommen wie groß das ganze ist, der Tisch ist 1,60m breit, die Deckenhöhe beträgt 2,50m, der Tornado ist 2,25m und die Breite von Tür bis Fenster ist 3,70m. Auf Bildern sieht der Raum gefühlt nach max. 2m aus. Wie auch immer, so sieht das ganze Abends und am Tag aus. Den Tornado kann ich in dem selben Farbschema leuchten lassen wie das Bild (alles per Fernbedienung). Meiner Freundin und mir gefällt das Bild sehr gut. Schönes Unikat geworden.
    8 Punkte
  15. Das Thema DSR wird immer mal - unter anderem von mir - in einigen Posts erwähnt. Es gibt hierzu im Forum aber noch keine Anleitung und ich finde, dass das Thema hier zu kurz kommt, gerade da viele eine 2080 oder stärker haben, jedoch nur ein 1920x1080px-Display. Deswegen diese Anleitung, auf die ich dann zukünftig bei Bedarf verlinken kann. Mittels DSR von Nvidia ist es möglich, Spiele in 2560x1440px oder 3840x2160px (oder auch anderen Auflösungen) zu spielen, obwohl das interne Display z.B. nur 1920x1080px unterstützt. Sobald ihr DSR aktiviert habt, könnt ihr diese Auflösungen in Spielen auswählen, so als hättet ihr ein Display, welches höhere Auflösungen unterstützt. Wie geht das? Nvidia Systemsteuerung öffnen „3D-Einstellungen verwalten“ ihr seid nun im Reiter "Globale Einstellungen". Dort wählt ihr bei „DSR-Faktoren“ 1,78x (2560x1440px), 2,25x (2880x1620px) sowie 4,00x (3840x2160px). Die anderen sind eigentlich uninteressant Darunter erscheint nun „DSR-Glättung“ welches auf 33% steht. Das sieht aber zu verwaschen aus. Wählt 20% aus. Dies ist vorallem für 2560x1440px wichtig, da es sonst zu grieselig ist. Bei 3840x2160px könntet ihr sogar 0% Smoothness nutzen, was dann am besten aussähe. Ihr könnt diesen Wert aber nicht für jeden Faktor konfigurieren, sondern nur global. Insofern sind 20% wegen 2560x1440px und auch 2880x1620px die beste Wahl Das wars. Jetzt könnt ihr euer Spiel starten und in den Spiel-Einstellungen taucht nun auch 2560x1440px, 2880x1620px und 3840x2160px auf. Einfach auswählen und das höhere Rendering genießen. Euer 1920x1080px Display bleibt natürlich technisch stets ein solches Display, die gerenderte Auflösung steigt jedoch, dies beschert euch einen Optik-Vorteil. Noch besser wäre es natürlich, wenn euer Display auch nativ die höhere Auflösung beherrschen würde (dann wäre es noch schärfer). Aber es lohnt sich trotzdem. Allgemeine Empfehlung: Wenn ihr grundsätzlich über genügend Leistung verfügt, und ihr nicht so viele fps braucht, wählt im Spiel 3840x2160px. Sofern ihr (neben 1920x1080px) nur diese Auflösung nutzt, könnt ihr wie oben schon angedeutet den Smoothness-Wert auf 0% stellen. Solltet ihr auch andere (Zwischen-)Auflösungen nutzen wollen, was sehr wahrscheinlich ist, so wählt wie gesagt 20% aus. Sofern ihr ein Laptop mit HDMI 2.0 (also keine Nvidia 30XX) habt und einen 120Hz-TV benutzt: Dadurch dass der TV kein DisplayPort 1.4 hat und euer HDMI Ausgang am Laptop nur HDMI 2.0 hat, könnt ihr 120 Hz nur bis 2560x1440px haben. Bei höheren Auflösungen seid ihr auf 60 Hz beschränkt. In diesem Fall empfehle ich keine höhere Auflösung als 2560x1440px zu nutzen, es sei denn euch macht 60 Hz und V-Sync nichts aus. Denn sonst kommt keine richtige Freude auf (meiner Ansicht nach), auch mit G-Sync nicht. In dem Fall aktiviert nur den Faktor 1,78x. 2560x1440px sind aber immerhin auch schon die 1,78 Fache Auflösung gegenüber 1920x1080... Sofern ihr ein Laptop mit HDM 2.1 habt und einen 120Hz-TV benutzt: Statt Faktor 1,78x (2560x1440px) könnt ihr nun auch 2880x1620px (Faktor 2,25x) benutzen und ihr habt trotzdem noch 120 Hz. Die Auflösung ist etwas höher und somit noch schärfer. Zudem lässt sie sich für das Display mathematisch gesehen besser umrechnen, was zu einer noch besseren Schärfe führt. Grundsätzlich sind die Faktoren 2,25x und 4,00x am besten, sie benötigen die wenigsten Filter. Gerade aber TVs beherrschen Upscaling sehr gut, hier werdet ihr zwischen 2560x1440px und 2880x1620px nur sehr wenige Unterschiede sehen. Bedenkt jedoch, dass die höhere Auflösung mehr Leistung benötigt. Sofern ihr ein Laptop (egal ob HDMI 2.0 oder HDMI 2.1) habt und einen 120 Hz oder höher Monitor benutzt: Hier gilt das Gleiche. Neben 2560x1440px könnt ihr dank DisplayPort 1.4 (schließt den Monitor also per Display Port an) auch 2880x1620px oder höher nutzen, ohne auf 60 Hz beschränkt zu sein. Sobald ihr eben einen 120Hz-TV benutzt, egal ob ihr auch schon einen externen Monitor nutzt oder nicht, muss klar sein, dass der TV kein Display-Port hat. Ein Laptop mit HDMI 2.0 (alle bis RTX 2080) macht dann nur Spaß (120 Hz!) am TV mit maximal 2560x1440px. (Beim 120 Hz-TV setze ich natürlich jetzt mal voraus, dass dieser bereits einen HDMI 2.1 Eingang hat, z.B. LG C9). Dann noch ein Hinweis: Egal ob ihr mit eurem internen Display spielt, oder mit dem Monitor (oder mit dem TV), nutzt immer die gleiche Auflösung. Sofern jedes Display die genutzte Einstellung/Auflösung unterstützt, bleibt diese erhalten. Sprich ihr müsst nur einmal die richtige Auflösung im Spiel auswählen, und schon bleibt sie für immer eingespeichert, egal mit welchem Display ihr spielt. -> das ist normalerweise nicht der Fall! Oder zumindest nicht bei jedem Spiel. Beispiel: Ihr zockt ein Spiel mit 1920x1080px an eurem Alienware-Display, also das vom Laptop. Dann schließt ihr ein Monitor oder TV an. Dort ist dann natürlich 1920x1080px auch ausgewählt. So wollt ihr wahrscheinlich an eurem 2560x1440px- oder 3840x2160px-Monitor (oder TV) aber nicht spielen, also erhöht ihr manuell in den Spiel-Einstellungen die Auflösung. Was passiert beim nächsten mal wenn ihr wieder am Alienware spielt? Richtig, dort wird dann wieder 1920x1080 gesetzt (weil eine höhere Auflösung vom internen Display ja nicht unterstützt wird) und beim nächsten mal Spielen am Monitor/TV müsst ihr die höhere Auflösung wieder manuell auswählen… nervig ohne Ende. Hier hilft euch DSR nun ungemein. Ihr spielt nun auch einfach am Alienware-Display bzw. eben überall mit 2560x1440px, 2880x1620px oder 3840x2160px, fertig. Welche Vorteile hat das Ganze also zusammengefasst? Optik: die Spiele sehen besser aus, für eine 2080 bietet sich in vielen Spielen 2560x1440px oder 2880x1620px an, damit hat man dann noch oft mindestens 60 fps. 3840x2160px solltet ihr nur in älteren oder nicht anfordernden Titeln auswählen, es sei denn ihr habt eine 3080 mit 150+ Watt oder unter 60 fps macht euch nichts aus (mir schon) Komfort: das Spiel merkt sich dauerhaft diese Auflösung. Wenn ihr wie schon gesagt ab und zu am internen Display spielt, und dann wieder am Monitor oder TV, müsst ihr bei vielen Spielen ständig wieder zwischen den verschiedenen Auflösungen wechseln (sofern ihr am Monitor oder TV eine höhere Auflösung verwenden wollt). Wenn ihr aber DSR aktiv habt, und bei allen Displays die gleiche Auflösung verwendet, bleibt diese dauerhaft eingespeichert und euch der ständige Wechsel der Auflösung in den Spiel-Settings erspart) Ihr könnt übrigens DSR aktiv haben, und wenn ihr den Monitor (oder TV) angeschlossen habt, nicht. Sprich die Nvidia Systemsteuerung unterscheidet hier je nach Display. Ihr könnt DSR natürlich auch dafür benutzen, um eurem schon höher aufgelösten 2560x1440px-Monitor 5120x2880px oder eurem 3840x2160px-Monitor 7680x4320px beizubringen… das kostet dann aber richtig Leistung... Welche Nachteile hat das Ganze? Ihr braucht natürlich mehr Leistung, habt also weniger fps. DSR verhält sich leistungstechnisch fast exakt genau so, wie als wenn ihr nativ eine höhere Auflösung hättet. Bei Spielen, die ihr konstant mit über 100 (oder 200) fps spielen wollt, z.B. Shooter wie CoD Modern Warfare oder Coldwar, empfiehlt es sich weiterhin die 1920x1080px-Auflösung zu nutzen (es sei denn ihr habt eine 3080 mit 150+ Watt, dann geht dort evtl. auch 2560x1440px). Aber für viele Spiele, die ihr z.B. in Third-Person mit Controller spielt, sind - zumindest nach meinem Geschmack - ca. 60-90 fps und 2560x1440px, 2880x1620px oder 3840x2160px die deutlich bessere Wahl als ca. 120 fps bei 1920x1080px. PS: Ich habe in dieser Anleitung bewusst keine Wörter wie QHD, 1440p, UHD, 4k usw. benutzt, weil manchen nicht jedes bekannt sein dürfte. Mit der stets ausgeschriebenen Auflösung, z.B. 2560x1440px, kann aber jeder was anfangen.
    7 Punkte
  16. Hallo zusammen, ich wurde in letzter Zeit öfter angesprochen, teils auch über PN, um die vBios-Thematik und nvflash zu erklären. Da es ja ein Problem zu sein scheint das öfter auftritt, schreibe ich das mal in einem Thread ausführlich zusammen. Wichtig!!! Das soll eine Hilfestellung für Leute sein, die Lust haben selber an Ihren Geräten zu basteln. Ich erstelle diesen Thread mit bestem Wissen und Gewissen, dass bei mir so alles funktioniert hat aber ich übernehme ausdrücklich KEINE Haftung, falls etwas nicht funktioniert hat. Wann ist ein neues / anderes vBios nötig? Bei einem Stock belassenem Gerät ist das normalerweise nicht der Fall. Tauscht man aber eine Grafikkarte kann es sein, dass die vBios Version auf der Karte nicht mit dem Gerät kompatibel ist. Symptome dafür sind in jedem Fall ziemlich eindeutig. In den meisten Fällen funktioniert garnichts - manchmal funktioniert es bis die Karte unter Last gesetzt wird. Letzteres ist oft bei Optimus-Systemen der Fall. Es gibt auch die Möglichkeit mit einem modifizierten unlocked-vBios das Powerlimit der Karte anzuheben und die volle Kontrolle über Takt und Spannung von GPU und vRAM zu bekommen. Dies soll kein Erkärungsthread werden wie man seine Grafikkarte übertaktet. Wichtig ist, dass die unlocked-vBios keine Selbstläufer sind. Oft legen diese vBios direkt höhere Taktraten an, was aber nicht jede Karte bei der Spannung verträgt. Also man sollte sich, bevor man ein unlocked-vBios flasht, intensiv mit dem Thema GPU-OC auseinandersetzen. Wo bekomme ich mein vBios her und welches ist das richtige? Meines Erachtens ist TechPowerUp immer eine gute Anlaufstelle, um Stock vBios zu finden. Im Bereich "Video Bios Collection" kann man seine Karte suchen und es werden einem mehrere Möglichkeiten vorgeschlagen. Manchmal sind die gleichen vBios in unterschiedlichen Geräten verbaut. Gibt es also kein Dell oder Alienware vBios, fährt man meistens mit den Clevo-Versionen auch nicht schlechter. Hat man sein vBios gefunden, läd man es dort herunter. Was brauche ich zum flashen eines vBios? Es gibt im großen und ganzen zwei Möglichkeiten ein vBios zu flashen. Per Windows CMD oder per DOS Stick. Bei letzerem kann man entweder die Befehle selber tippen oder eine autoexec.bat Datei erstellen. Damit bekommt man die Möglichkeit blind zu flashen, was einem einige Vorteile bietet. Davon eine bessere oder schlechtere Möglichkeit zu bestimmen nehme ich Abstand. Sie haben beide ihre Vor- und Nachteile. Grundsätzlich braucht man immer: nvflash (Programm für Windows und DOS) Normale Version Mod Versionen vBios.rom Datei (optional) GPU-Z (optional) USB Stick (am besten nicht Größer als 4GB) Kann ich etwas kaputt machen, wenn ich das falsche vBios flashe? Das kann ich grundsätzlich verneinen. Es gibt bestimmt Ausnahmen, die die Regel bestätigen aber ich für meinen hatte schon viele flashe vBios drauf. Die Karte funktioniert dann einfach nicht. Nach dem flashen des richtigen vBios ist alles wieder gut. Aber ich verweise an dieser Stelle nochmal auf meinen eingangs erwähnten Haftungsausschluss. Flashen per Windows: Ordner auf dem Desktop erstellen und rein kommt: vBios.rom Datei (hier und im Folgenden schreibe ich vBios.rom und meine damit die vBios Datei die ihr flashen wollt) nvflash und nvflash64 aus der Heruntergeladenen .zip-Datei (hier und im Folgenden schreibe ich nvflash - bei 64bit Systemen ist natürlich nvflash64 zu verwenden) CMD als Administrator öffnen und in den Ordner auf dem Desktop navigieren cd Desktop/Ordnername Wichtig: Ausgangszustand sichern. Dazu entweder bei GPU-Z rechts neben der vBios-Versionsnummer klicken oder folgendes in der CMD eingeben. nvflash --save vBios_alt.rom Flashen des vBios: nvflash -6 vBios.rom Bei SLI Geräten ist die Nummer der Karte anzugeben. Link 0 - Rechts 1 nvflash -i0 -6 vBios.rom Je nach Karte und vBios fragt nvflash ein oder zweimal nach der Erlaubnis weiter zu machen. Das ist entsprechend zu quittieren. Zu guter Letzt wird man aufgefordert das System neuzustarten. Wenn sich das vBios nicht bespielen ließ und es sich nicht um ein modifiziertes vBios handelt, dann ist die Version wahrscheinlich nicht kompatibel und man sollte eine andere ausprobieren. Ist man sich sicher, dass die vBios Version passen muss, kann man sein Glück mit einer Mod-Version von nvflash versuchen. Damit können die Sicherheitsbedenken der Software umgangen werden. Flashen per DOS-Stick: Einen DOS-Stick erstellen Ich habe einfach mal das erste vorgeschlagene YouTube-Video verlinkt. Ist aber egal - Hauptsache am Ende hat man einen bootfähigen DOS-Stick. nvflash und vBios.rom auf den Stick ziehen System neustarten und vom Stick booten. Flashen des vBios: nvflash -6 vBios.rom Bei SLI Geräten ist die Nummer der Karte anzugeben. Link 0 - Rechts 1 nvflash -i0 -6 vBios.rom Je nach Karte und vBios fragt nvflash ein oder zweimal nach der Erlaubnis weiter zu machen. Das ist entsprechend zu quittieren. Blind-flash per DOS-Stick: Einen DOS-Stick erstellen Ich habe einfach mal das erste vorgeschlagene YouTube-Video verlinkt. Ist aber egal - Hauptsache am Ende hat man einen bootfähigen DOS-Stick. nvflash und vBios.rom auf den Stick ziehen Erstellen der autoexec.bat Öffnen vom Windows Editor nvflash -4 -5 -6 vBios.rom -i0 oder -i1 Bei SLI (siehe oben) Speichern unter -> DOS-Stick als Speicherort auswählen -> Dateityp: Alle Dateien -> autoexec.bat -> Speichern System neustarten und ins BIOS wechseln Bootreihenfolge bearbeiten, so dass vom Stick gestartet wird. Änderungen speichern und neustarten. Nun wird automatisch nvflash ausgeführt. Wenn alles klappt sieht man direkt danach wieder etwas. Hat es nicht geklappt - nach ca. 5min System ausschalten, mit anderem PC ein anderes vBios auf den DOS-Stick ziehen und nochmal versuchen. Mein persönliches Vorgehen (Empfehlung) Ich erstelle mir immer von der letzten funktionierenden vBios-Version einen bootfähigen DOS-Stick und habe immer meine Bootreihenfolge so eingestellt, dass er vom DOS-Stick bootet, wenn einer eingesteckt ist. Dann experimentiere ich unter Windows fröhlich mit den verschiedensten vBios-Versionen herum und wenn ich irgendwann einen Blackscreen bekomme, stecke ich den Stick ein und starte neu. Dann ist mein System wieder fit. Wichtig dabei ist, den Stick vorher getestet zu haben. Wenn dann alles funktioniert kann man (meiner Erfahrung nach) risikofrei experimentieren. Ich hoffe euch gefällt meine Anleitung und es ist alles einigermaßen klar geworden.
    7 Punkte
  17. Seit längerer Zeit war ich auf der Suche nach einer neuen Tastatur. Da ich bislang nur eine 0815 HP Tastatur am R4 hängen hatte, wollte ich langsam auf was Gescheites wechseln. Auf der Suche nach einer neuen Tastatur bis 100 € habe ich mich für die Sharkoon PureWriter RGB Low-Profil Tastatur (Red Kailh Switches) und der AW768 Tastatur (+AW168 Palm Rest) entschieden. Kurz zu den Preisen: - Sharkoon PureWriter RGB 72,99 € inkl. Versand bei Amazon - AW768 Tastatur + AW168 Palm Rest 89,11 € inkl. Versand direkt bei Dell Ich hatte zwar grob eine Vorstellung was mir bei der neuen Tastatur wichtig ist, war mir aber nicht sicher welche mir am Ende mehr zusagt. Seit Anfang der Woche habe ich nun beide Tastaturen getestet und ausprobiert und wollte nun einen kleinen Einblick geben wie die Tastaturen so sind. Ich nutze die Tastatur überwiegend zum schreiben. Zum zocken habe ich mein alt bewährtes Logitech G13 Pad (old but gold). Kleines Unboxing und Vergleich: Um das Ganze ein wenig abzukürzen, hier mal eine kleine Pro(+) & Kontra(-) Liste Sharkoon Tastatur: + Low-Profil + Minimalistisches Design + Gute Verarbeitung + RGB Einzeltasten Beleuchtung + Kein Extra Treiber erforderlich + Beim Tippen leiser als AW768 (Red Switches) + Abnehmbares USB Kabel + Zwei verschieden lange USB Kabel im Lieferumfang - Auslösekraft zu lasch - Hub etwas zu kurz - Ungleichmäßiges Ausleuchten der Symbole - Tastatur biegt sich leicht bei Druck in der Mitte Alienware Tastatur: + Perfekte Verarbeitung + Super Ausleuchtung + Lauter/ Leiser Drehrad + 3-Höhen einstellbar + Sehr schwer + Preis (für AW-Verhältnisse) + Dickes, gesleevtes USB Kabel + Seperate Makro-Tasten + Magnetischer Palm Rest + Angenehmer Hub + Angenehme Auslösekraft + Besseres Design der Symbole - Lauter beim Tippen als Sharkoon (Brown Kailh Switches) - Für alle Funktionen AW Comand Center erforderlich - USB Kabel nicht abnehmbar - Nicht so kompakt wie die Sharkoon Das sind aus meiner Sicht grob die wichtigsten Punkte. Bei der Auswahl der Tastatur waren für mich die wichtigsten Punkte; Lautstärke der Keys beim Schreiben, beleuchtete Tasten und Haptik. Und natürlich mit welcher Tastatur ich schneller schreiben kann. Am Ende habe ich mich für die Alienware Tastatur entschieden. Die Qualität und Ausleuchtung ist wirklich ausgezeichnet. Das merkt man besonders am Gewicht. Laut Dell wiegt das gute Stück 1,46 kg. Ich habe jetzt nicht nach gewogen, aber rein vom Gefühl her würde ich es ungefähr mit zwei 1L Milchpackungen vergleichen. Auch wenn die AW Tastatur beim Schreiben einen Tick lauter ist als die Sharkoon, ist das Schreibgefühl wesentlich besser. Ich hatte mich anfangs für eine Low-Profil Tastatur entschieden, da ich gerne auf der Lappy Tastatur des R4 schreibe. Leider ist das Schreibgefühl auf der Sharkoon im Vergleich zu Tastatur vom R4 zu "fremd", zumindest für mein Empfinden. Der kurze Hub ist vielleicht noch ok, aber zusammen mit der niedrigen Auslösekraft von 45g (lt. techn. Daten) hat man das Gefühl das man die Taste drückt bevor man sie bewusst drücken will. Die blauen Switches haben zwar eine Auslösekraft von immerhin 55g, aber die klicken beim Drücken. Für jemanden wie mich, der eine leise Tastatur sucht, sind die lauten Klimper-Tasten ein KO-Kriterium. Die Sharkoon Tastatur ist keineswegs schlecht, nur für mich ist sie nicht die richtige. Etwas Bedenken hatte ich bei der AW Tastatur und dem dazugehörigem Command Center. Um alle Funktionen der Tastatur zu nutzen benötigt man das neue CC, was auch beim AW17 R5 läuft. Da ich aber ein AW17 R4 mit dem alten CC habe, hatte ich befürchtet das es unter Umständen zu Problemen führen könnte wenn man zwei verschiedene CC auf dem System hat. Bei Installation habe ich für das neue CC sicherheitshalber einen neuen Ordner angelegt, da das Verzeichnis das selbe wie beim alten CC ist. Installation + Firmware Update der Tastatur lief problemlos durch und alles lässt sich wunderbar einstellen und beide CC laufen ohne Fehler.
    7 Punkte
  18. Getreu dem Motto habe ich mir dieses Jahr im März einen neuen Gaming PC gebaut und meinen aufgerüsteten Aurora R4 in Rente geschickt Hier mal die Komponenten: CPU: AMD Ryzen 7 3700X (291 €) Arbeitsspeicher: 32 GB DDR2-3200 CL16 (152 €) SSD: Samsung 970 Evo 1 TB (168 €) Mainboard: Asus PRIME X570-PRO (239 €) Gehäuse: NZXT H510 Elite Window Schwarz (154 €) CPU Kühler: Scythe Fuma 2 (49 €) 2 Noctua Chroma black Lüfter (50€) Gesamt: 1103 € Meine GTX 1080, ein Corsair RM750x Netzteil und eine 740 GB SATA SSD habe ich aus dem Aurora in meinen neuen PC mitgenommnen. Als Monitor habe ich den Samsung CF791 (34 Zoll Ultra Wide, Curved, VA Panel, 3440x1440, 100 HZ), als Maus die Racer Viper Ultimate und als Keyboard das CM Storm Rapid-I. Die genaue Liste der neuen Teile gibt es hier. Wahl der Komponenten: Am wichtigsten für mich war das Gehäuse. Es sollte kompakt sein, ein ATX Mainboard unterbringen, Glas Seitenteil + RGB und einen USB-C 3.2 Front Anschluss haben. Mit den Kriterien ist mir nicht viel mehr viel Auswahl geblieben . Das NZXT Gehäuse ist rechteckig und schlicht, hat vorne und an der linken Seite Glaswände und kommt mit 2 140 mm LED Lüfter vorne und einer LED Leiste innen am Gehäusedach. Zusätzlich ist ein LED und Lüfter Controller verbaut, der alles steuert. Letztendlich bin ich mit dem NZXT Gehäuse zufrieden, was mir nicht gefällt schreibe ich weiter unten. Bei der CPU habe ich mich bewusst für 8 Kerne und AMD Entschieden. AMD wegen P/L und 8 Kerne, da ich mit dem PC nur zocken will und 12 oder 16 Kerne nicht nutzen werde. Es hätten auch 6 Kerne gereicht, die hatte ich aber schon in meinem Aurora, das ging dann natürlich nicht . Das Mainboard war eine schwierige Wahl, letztendlich sollte es auch RGB haben und einen USB-C 3.2 Front Header. Die X570 Plattform wegen Zukunftssicherheit und PCIe 4.0. Das Asus Board ist super, aber die LEDs nutze ich wegen der Software nicht und mein Gehäuse leuchtet auch so bunt genug. Beim Arbeitsspeicher haben ich mit 3200 MHz ein Kompromiss zwischen Geschwindigkeit und Preis gefunden. Schnellerer RAM war deutlich teurer. Hier habe ich aber eins gelernt: immer die RAM-Kompatibilitätsliste des Mainbaords beachten! Das habe ich nicht gemacht und eines der wenigen RAM Kits erwischt, die nicht kompatibel sind... Nach ein paar Mainboard Updates bootet aber alles mit XMP Profil. Die SSD war recht simpel. Auch wenn ich die Geschwindigkeit nicht brauche ist Samsung doch für Qualität bekannt. Eine 750 GB SATA SSD habe ich aus meinem Aurora übernommen. Der CPU Lüfter war auch eine leichte Wahl. Ähnliche Leistung wie der 120m Noctua Kühler mit 2 Lüftern, aber nur der halbe Preis und ein (wie ich finde) schickeres Design. Die Montage war recht einfach und die CPU Temperaturen in meinem Gehäuse sind gut. Meine GTX 1080 ist immer noch flott und die RTX 2080 Super war einfach nicht super genug. Das hat sich mit der RTX 3080 geändert, es könnte sich also noch was tun . Was mir nicht gefällt: Zunächst zum Gehäuse. Dadurch, dass die Front aus Glas ist, kann Luft nur durch einen Spalt an der Seite und unten ins Gehäuse kommen. Die Lüftung war wohl so schlecht, dass NZXT neben den beiden 140 mm Frontlüftern noch einen 120 mm Lüfter hinten und einen 140 mm Lüfter oben verbaut hat. Die beiden Lüfter hinten und oben waren mir zu laut, deshalb habe ich sie gegen zwei Noctua Chroma Black getauscht. Mit der richtigen Lüfterkurve für die Lüfter vorne, hinten und oben funktioniert es aktuell aber gut. Wenn die Lüfter schnell drehen hört man ein pulsierendes Brummen. Es bildet sich ein Unterdruck im Gehäuse, da nicht genug Luft nach kommt. Hier kann ich mir gut vorstellen, dass ein gelochtes Blech mit Luftfilter anstatt dem Glas in der Front Abhilfe schaffen kann. Der zweite Kritikpunkt ist die Lüfter/LED Steuereinheit. Die Software dazu lässt sich gut bedienen, es kommen aber oft Updates und wenn ein Update installiert wird drehen die Lüfter immer auf max. Das nervt. Was aber noch mehr nervt: immer wenn ich den PC vom Netz nehme vergisst die Steuereinheit meine Lüfterkurve und LED Einstellung?! Man kann also die NZXT Software nicht aus dem Autostart nehmen wenn man regelmäßig den PC vom Strom trennt... Zum Mainboard: die Asus Software zum steuern der LEDs ist mies. Lahm, gamery Design und buggy. Das Mainboard an sich läuft stabil, aber wegen der LED Komponente braucht man Asus nicht zu kaufen (angekommen andere Asus Boards habe die selbe Software). Fazit: Nach einigen Problemen mit dem RAM und der Lüftersteuerung habe ich mir ein schicken und flotten PC zusammen gebaut. Klar, es ist nicht der schnellste PC, aber ich habe darauf geachtet qualitativ hochwertig Komponenten zu verbauen und für meine Anwendungen eine gute Leistung zu bekommen. Auch habe ich wieder viel gelernt was aktuelle Hardware angeht mein letzter Eigenbau ist doch schon ein paar Jahre her und es hat sich einiges getan. Ein Problem bleibt aber, das Kabelmanagement Was meint ihr zu meinem PC? Teilt auch gerne euren selbst gebauten PC
    6 Punkte
  19. Ich würde dir als erstes mal empfehlen, zu versuchen dich klar auszudrücken. Entschuldige das ich es so sage, aber bei deinem Geschreibsel bekommt man echt Augenkrebs. Wenn du der Meinung bist die Lüfter funktionieren nicht, dann starte dein Notebook und drücke dabei F12. Im folgenden Menü wählst du Diagnostics aus. Da kann man die Lüfter einzeln testen.
    6 Punkte
  20. Zum einen mit den drei Streben links, die erstaunlicher mehr Halt geben als gedacht und zum anderem mit einem selbst angefertigtem Anti-Sag-Mount. Hab halt drei Streben genommen, um die maximale Stabilität zu erreichen. Ich wusste aber schon vor dem Kauf, dass eine Lösung gegen GPU-Sag bei diesem "Gehäuse" definitiv ein Problem werden wird. Insbesondere bei der langen und schweren Karte, die ich habe. Letztendlich dachte ich mir, dass mir schon eine passende Lösung einfallen wird, wenn ich das Case zu Hause habe. Für den Anti-Sag-Mount habe ich dann ein 12mm dickes Aluminiumrohr genommen, es auf den passenden Winkel gebogen, ein Gewinde oben und unten reingeschnitten und schwarz lackiert. Das Teil ist so stabil, das hält die GPU mit Leichtigkeit alleine. Bin jedenfalls sehr zufrieden damit. Auch Standfüße gegen das nach vorne Kippen musste ich mir anfertigen. Das war jetzt aber weniger ein Problem. Hab jetzt die Tage noch ein wenig Beleuchtung montiert und bin soweit jetzt erstmal fertig. Bin sehr zufrieden mit dem Gehäuse. Ist einfach mal was anderes und nimmt nur sehr wenig Platz ein. Leise ist es auch, da kaum Lüfter verbaut sind.
    6 Punkte
  21. Ich gehe mal davon aus, dass du nichts "gelöscht", sondern einfach Secure Boot von enabled auf disabled gestellt hast. Korrigiere mich da bitte, falls ich falsch liege. Wäre mir aber neu, wenn man da einfach irgendwelche Einträge löschen kann. Ansonsten sehe ich da kein Problem, dass du irgendwelche Settings dort angepasst hast. Dafür ist das BIOS schließlich auch da. Zunächst mal was Allgemeines zu der ganzen BIOS-Geschichte und den vielen Lösungsansätzen. Es hilft ungemein, wenn man sich einmal vor Augen hält, was das BIOS eigentlich macht, wie es arbeitet und welche Funktionen es implementiert hat. Hört sich möglicherweise etwas komisch an, erklärt aber das aktuelle Verhalten und die gescheiterten Lösungsansätze bislang, auch wenn man jeden einzelnen Ansatz an der Stelle löblich erwähnen muss, denn so ein Engagement zur Lösungsfindung ist ja auch nicht selbstverständlich. Jedenfalls, wenn man den Lappy/ Rechner startet, beginnt das BIOS-Programm mit dem Power On Self Test (POST). Dies ist eine vordefinierte Reihenfolge, wo verschiedene Hardware gecheckt wird. Vereinfacht gesagt, BIOS: "CPU bist du da?" CPU: "jo, bin da." BIOS: "RAM, bist du da?" RAM: "jo, bin da." usw. In der Realität werden natürlich weitaus mehr Daten ausgetauscht, aber die Funktionsweise sollte verständlich sein. Viele werden das von euch auch schon lange kennen, aber ich werde auf diesen Punkt immer wieder zurückkommen, deshalb spreche ich es jetzt an. Man muss immer Hinterkopf behalten, dass viele Funktionen wie das Boot- oder Recovery-Menü eine Funktion eines funktionierenden BIOS ist. Ist das BIOS aber beschädigt, lassen auch diese Funktionen normalerweise nicht mehr starten. Nach jetzigem Wissensstand, schätze ich, dass das BIOS einfach beschädigt ist. Warum das BIOS aber beschädigt wurde, ist schwer zu sagen. Vielleicht ist ein Bug im BIOS selbst, so dass eine ganz bestimmte Einstellung dazu führt, dass das BIOS fehlerhaft gespeichert wird. Vielleicht gab's beim Speichern selbst irgendwie ein Problem. Lag ein Undervolting-Offset zufällig vor? Wurde beim Speichern bzw. beim erneuten Booten der USB-Stick oder andere Hardware währenddessen entfernt (Wackelkontakt oder ähnliches)? Speziell diese UV-Geschichte ist gar nicht so neu. Viele betreiben ihr Notebook mit einem UV-Offset, vergessen aber schnell, dass man bei einem BIOS-Update das UV-Offset vorher herausnehmen sollte. Wenn dann mitten im BIOS-Update (oder beim Speichern von Settings) die CPU abschmiert, ist das BIOS meist unbrauchbar danach. Auch Schadsoftware auf dem USB-Stick könnte eine Ursache sein. Halte ich zwar für sehr gering, aber ausschließen will ich es auch nicht. Nicht jede Schadsoftware ist für Windows gemacht und damit im OS sichtbar. Ist halt ein bisschen verdächtig, dass es ausgerechnet nach dem Ausstellen von Secure Boot zu dem Problem gekommen ist. Dann die Sache mit den Peep-Codes. Das Gedudel anfangs ist der Hinweis, dass ein Boot-Fehler vorliegt. Dann piept er 3x, dann 2x und am Ende 1x und anschließend geht die Schleife von vorne los. In deinem Fall gehe ich davon aus, dass das BIOS beschädigt ist und er (das BIOS-Programm) den POST nicht vernünftig abschließen bzw. starten kann. Allein die Tatsache, dass der 1x Beep-Code (BIOS ROM-Fehler) da ist, erklärt wahrscheinlich den 2x- und 3x Beep-Code. Warum der 3x-Beep-Code vor dem 1x- und 2x-Beep-Code kommt, kann ich nur spekulieren (wahrscheinlich Reihenfolge des Speicherns und Ausgeben unterschiedlich). Demnach gehe ich davon aus, dass das fehlerhafte BIOS-Programm gar nicht PCH und RAM abcheckt und entsprechend auch keine Antwort erhält, wodurch die Fehlercodes automatisch hinterlegt werden. Wie gesagt, dass ist nur ein Erklärungsversuch meinerseits, der aber nicht zwingend stimmen muss. Jedoch macht das für mich am meisten Sinn, weil ich davon ausgehe, dass RAM und PCH völlig in Ordnung ist. Auch den Lösungsansatz mit der SSD halt ich für wenig erfolgversprechend. Das BIOS interessiert ein bootbares Medium erst, wenn alles ordnungsgemäß durchgelaufen ist. Da aber das BIOS schon vorher rumzickt, wird die SSD zu dem Zeitpunkt noch gar nichts zu melden haben. Den Lösungsansatz mit dem RAM wird wahrscheinlich auch nicht zum Erfolg führen, auch wenn ich diesen Lösungsansatz gut nachvollziehen kann. Ich habe diesen Fehler bei einem Alienware-Gerät mal provoziert. Der Fehler kommt meist zustande, wenn beim POST die RAM-Daten (Timings, Sub-Timings, Voltage) aus dem SPD-Speicher fehlerhaft gespeichert und nicht auf dem RAM angewendet werden können. In meinem Fall hat nur noch ein CMOS-Reset geholfen, damit das BIOS die RAM-Daten aus dem SPD-Speicher neu einliest. Die genannten Punkte sind keineswegs falsch und werden zum Teil auch so im Service-Manual erwähnt. Tatsächlich ist es in der Realität aber etwas anders. Die Stromkreise bei dem BIOS-Chip laufen in der Regel getrennt voneinander. Mal ein anderes Beispiel in dem Zusammenhang: Viele Desktop-Mainboards, ab einer bestimmten Preisklasse (meist OC-Feature) haben einen Clear CMOS-Button (viele min. ein Jumper). Dieser Knopf unterbricht einfach nur die Stromzufuhr von der CMOS-Batterie zum BIOS-Chip. Hier reicht schon eine Unterbrechung von weniger als eine Sekunde aus, um den BIOS-Chip komplett auf Default zu setzen. Wenn man RAM-OC macht, ist das Feature (oder ReTry) echt Gold wert. Im Beispiel Laptop und Service-Manual, wird aber meist eine Vorgehensweise empfohlen, die auf nahezu alle Notebook-Typen (idiotensicher) übertragbar ist. Deshalb Powerdrain, 5-15 Minuten CMOS-Batterie abklemmen, Akku raus usw. Wenn ich richtig informiert bin, hat das schon fast historische Hintergründe, wo in den damaligen Notebooks Kondensatoren und andere Elektrokomponenten verbaut wurden, die deutlich länger den Strom gespeichert haben und auch die Stromkreise und BIOS-Chips waren anders. Da an der Vorgehensweise aber nichts falsch ist, hat's man immer dabei belassen. Ich will damit nur sagen, dass modarim an sich schon alles richtig gemacht und es keinen Unterschied mehr macht, ob er die CMOS-Batterie 5 Minuten oder eine Stunde abklemmt. Wenn das Notebook einmal vollständig (inkl. CMOS) stromlos war, war das schon richtig so. Ja, weil die Recovery-Funktion, eine Funktion eines funktionierenden BIOS ist. Ich will natürlich nichts ausschließen und keinen Lösungsversuch ungetestet lassen, aber ich würde meine Erwartungen nicht zu hoch setzen. Das Area 51m-Mainboard hat mehrere BIOS-Chips. Mit etwas Glück läuft die Recovery-Funktion vielleicht über den anderen Chip. In den allermeisten Fällen, in einem Preisbereich, wo es sich aus meiner Sicht nicht mehr lohnt, derart viel Geld in ein "altes" Gerät zu investieren. Meist bist du über 1.000€ los und das für irgendeinen gebrauchten Kram und wenn das Board am Ende immer noch nicht läuft, verlierst du noch mal Geld. Für's gleiche Geld (+ das, was für das Area 51m noch bekommst) kannst du auf ebay KA schon ein fast gleichwertiges, funktionierendes Gerät holen. Vielleicht sogar schon besser. Ich gehe jetzt nicht auf jeden Lösungsversuch ein, verweise aber nochmals auf den am Anfang genannten Punkt mit der Funktionsweise des BIOS. F12 mit Bootloader-Menü wurde bereits bestätigt, dass es nicht geht. Demnach braucht er auch kein DVD-Laufwerk oder sonst was anzuschließen. Diese Geschichte mit der CD/ DVD ist sowieso nur im Legacy-Mode vordefiniert, wo man kein Bootmanager zur Verfügung hat, sondern eine feste Prio bzw. die man selbst festlegt. Mit UEFI hat man auch zeitlich den Bootmanger aktiviert, der automatisch nach'm MBR sucht. AHCI/ RAID on ist ein Punkt ja, aber soweit kommt erst gar nicht. Dieser Punkt ist erst interessant, wenn der POST durchgelaufen ist und es darum geht, wie die bootbaren Laufwerke angesprochen werden sollen. Externe Gerät werden ziemlich funktionieren (drehen und leuchten), da auch andere (Strom-)Komponenten wie Tastaturbeleuchtung, Lüfter, Lautsprecher etc. funktionieren. Teilweise läuft der 5V-Kreislauf ohne Logik und wird direkt ausgegeben. So wie auch Charge-USB usw. Ehrlich gesagt, sehe auch hier die größten Erfolgschancen. Das Gerät, welches man dafür braucht, ist -DAS- beispielsweise. Ich sag aber gleich vorab, dass ich damit keine Erfahrung habe. Ich hab es nur zufällig einmal im Einsatz gesehen. Wie so oft im Leben, muss man sich das mit Youtube und Co. wahrscheinlich selbst beibringen oder kennt jemanden zufällig. Falls alle Stricke reißen, hab ich vielleicht jemanden da (weiß nicht, ob er das macht. Muss ich selbst fragen). Der BIOS-Chip ist in der Regel ein achtbeinige Winbond-Chip (Vergleichsbild). Ich habe auch Bilder vom Area 51m R1 Mainboard da (im VRM-Thread), welcher aber der Main-BIOS Chip ist, weiß ich nicht exakt. Hier mal das Mainboard von beiden Seiten: Auf den ersten Blick, würde ich die beiden Chips auf der linken Seite vermuten, tendenziell den auf der Rückseite als Main. Oberhalb und rechts vom RAM finden sich noch zwei weitere Winbond-Chips, die etwas kleiner sind. Glaube zwar nicht, dass die mit dem BIOS was zu tun haben, aber völlig ungeachtet würde ich sie auch nicht lassen. Der oberhalb vom RAM wird ziemlich sicher für RAM-Profile sein. Anhand der CMOS Batterie und des Pin-Layout des BIOS-Chips, sollte man relativ leicht rausfinden können, welcher der BIOS-Chip ist.
    6 Punkte
  22. Die Titan lebt wieder! Es war tatsächlich ein Kurzschluss im 8Pin Stecker. Ohne Hilfe konnte ich das nur bis zu den unteren vier Mosfets nachverfolgen und wusste dann nicht weiter. Mehr durch Zufall habe ich dann ein Video gefunden, in dem jemand einen Mosfet auf einer EVGA 980 TI tauscht. Die vom PCB ziemlich identisch ist mit meiner Titan X. Das Video war sehr hilfreich (wenn auch sehr verwackelt), da dort erklärt wird, wie man herausfinden kann, welcher Mosfet schuld ist. Nach dem ich den Mosfet ausgelötet hatte, war der Kurzschluss schonmal weg. Den neuen Mosfet habe ich bei Digikey bestellt und gestern eingelötet. Nachdem ich nochmal überprüft habe, dass ich keinen Kurzschluss verursacht habe konnte ich die Karte testen. Sofort kam ein Bild - jedoch ging der PC aus, sobald ich einen Benchmark gestartet habe. Die Phase an der ich gearbeitet hab startete nicht. Ein paar der winzigen Kontakte rings um den Mosfet hatten sich beim Löten nicht richtig verbunden. Ich habe den Lötprozess bestimmt 20 Mal wiederholt, bis heute endlich die Karte stabil durch den Benchmark lief. Eine längere Zeit im Benchmark und eine kleine Runde Red Dead Redemption 2 später läuft die Karte immer noch ohne Probleme. Hier kann man beim untersten Mosfet Lötzinn an der Seite sehen. Das ist ein Indiz dafür, dass das der defekte Baustein ist. Durch das erhitzen beim Kurzschluss ist das Lot flüssig geworden und an der Seite ausgetreten. (Erklärung aus dem Video) Hier habe ich den Bereich um den defekten Mosfet abgeklebt, um keine anderen Teile mit abzulöten. Bei meinem Mosfet konnte man auch wie im Video den Kurzschluss zwischen zwei der großen Pads auf der Unterseite messen. Und hier haben wir den neuen Mosfet.
    6 Punkte
  23. Hallo zusammen. Auf Nachfrage erstelle ich nochmal eine kurze Anleitung wie man seine Grafikkarte richtig einstellt, wenn man sich entschlossen hat ein unlocked vBios zu flashen. Ich werde das alles am Beispiel meiner 980m's erklären. Die Werte, die ich einstelle, sind nicht gemeingültig und funktionieren nicht bei allen Karten gleich. Wichtig: Ich übernehme (wie immer) keine Haftung. Das soll nur ein Leitfaden sein. Wenn man sich mit dem Thema unlocked vBios und OC beschäftigt muss einem auch klar sein, dass man damit ein gewisses Risiko eingeht. Das unlocked vBios: Dazu wie man überhaupt ein vBios auf seine Karte bekommt verweise ich auf meinen Thread den ich vor ein paar Tagen erstellt habe. Bei einem unlocked vBios sind (wie der Name schon vermuten lässt) die Grenzen freigeschaltet. Das betrifft Spannung, Takt, Speicher-Takt, Leistungsaufnahme und Temperaturlimit. Außerdem kann es sein, dass ein unlocked vBios standardmäßig einen anderen Takt bei einer anderen Spannung anlegt als mit den normalen vBios. Daher kann es dazu kommen, dass die Karte garnicht von Anfang an lauffähig ist, bzw. unter Last crashed. Um diese Einstellungen soll es in diesem Thread gehen. Was brauche ich dafür? Software Nvidia Inspector Windows Aufgabenplanung Furmark Ich erkläre hier am Beispiel des Nvidia Inspectors. Das ist die Oberfläche die ihr (so oder so ähnlich) seht, wenn ihr ein unlocked vBios geflashed habt. Eine 980m taktet normal mit 1128MHz. Bei Default Clock steht hier 1202MHz. Das ist die Übertaktung, die das vBios mitbringt. Um also ein Profil ohne Übertaktung zu haben musste ich um 75MHz nach unten korrigieren (gelb markiert). Auch das Powerlimit habe ich angehoben, damit die Karte nicht mehr drosselt. Gleichzeitig läuft die Karte im P0 (also höchster Power-State) bei dem vBios nur mit 1,000V was für meine Karten ebenfalls zuwenig ist. Ich musste um 0,025V erhöhen. Mit diesen Einstellung habe ich einen stabiles System. Wie finde ich die richtigen Einstellungen? Mithilfe des Furmark-Stresstests kann man sein Karte auslasten. Wenn man noch garnicht weiß wie sich die Karte verhält, testet man den Standardtakt der Karte. Den findet man ganz gut bei Notebookcheck heraus. Friert der Bildschirm ein oder stürzt der Rechner ab erhöht man die Spannung um 12,5mV (kleinster Schritt) und testet erneut. Diesen Vorgang wiederholt man so lange bis man die richtige Spannung gefunden hat und das System stabil läuft. Kommt man irgendwann bei 100mV mehr an und es läuft immer noch nichts wie es soll, dann ist noch was anderes nicht richtig (Treiber oder so). Wenn die Einstellungen im Furmark funktionieren heißt es jedoch nicht, dass sie überall funktionieren. Also testet man am besten mit einem grafisch anspruchsvollen Spiel und das über eine lange Zeit. Alternativ kann man auch den Stabilitätstest von 3D-Mark dafür nutzen. Wie übertakte ich? Das kann man in einem Wort zusammenfassen: LANGSAM Beim übertakten tastet man sich vorsichtig höher. Sprich man erhöht den Takt vorsichtig (ich mache maximal 10MHz Schritte) und erhöht dann die Spannung bis das System wieder stabil ist. Dann folgt der Langzeittest. Wenn das System weiter stabil bleibt und die Temperaturen noch niedrig sind kann man noch weiter erhöhen. Ich persönlich habe meine Wohlfühltemperatur der GPU's bei max. 80°C. Mehr möchte ich nicht haben. Ist aber jedem seine Sache. Kann ich Profile anlegen? Ja, man kann sich Profile erstellen. Dafür eignet sich der Nvidia Inspector recht gut, da man die Anwendung einfach mit anderen Attributen aufrufen kann. In meinem Fall habe ich eine Windows Aufgabe erstellt, die beim Systemstart den Nvidia Inspector öffnet und zwar mit folgenden Attributen: -setBaseClockOffset:0,0,-75 -setMemoryClockOffset:0,0,0 -setVoltageOffset:0,0,25000 -setPowerTarget:0,130 -setTempTarget:0,1,90 -setBaseClockOffset:1,0,-75 -setMemoryClockOffset:1,0,0 -setVoltageOffset:1,0,50000 -setPowerTarget:1,130 -setTempTarget:1,1,90 "-" Leitet ein neues Attribut ein. "set...." Ist der Wert den man setzen möchte "x,y,z" Die erste Ziffer steht für die Karte (bei nicht SLI-Systemen also immer 0). "x,y,z" Die zweite Ziffer steht steht für einen gesetzten Haken. In meinem Fall also nur bei Priorize Temperature 1, ansonsten 0. "x,y,z" Der dritte Wert ist der Wert den ihr einstellen wollt. Der Reihenfolge nach also in: MHz (Offset), MHz (Offset), mV (Offset), % (Absolut), °C (Absolut) Mit Hilfe der Windows Aufgabenplanung werden meine Karten stabil und ohne OC eingestellt und zwar bei jedem Systemstart ohne dass ich das bemerke. Um die Karte jetzt aktiv hochzutakten habe ich mit Makrotasten im AW-CC angelegt. Nach dem gleichen Prinzip wie in der Aufgabenplanung nur mit straffer abgestimmten Werten. Ich hoffe meine kleine Anleitung kann dem einen oder anderen helfen. @bluedragon Ich hoffe du kommst mit dieser Anleitung etwas weiter. Falls du noch fragen hast bitte gleich mit HWiNFO Log hier dazu schreiben. Dann können auch andere davon profitieren.
    6 Punkte
  24. So, habe mein m17 R4 ja bekommen und es die letzten wenigen Stunden getestet. Soviel vorab: ich hab keinerlei Motivation, das Ding nochmal anzuschalten. Leider muss ich es ja noch zurücksetzen, werde mich dann jedoch in einem anderen Raum aufhalten... Außerdem werde ich euch noch den Gefallen tun, und testen, was ein U3 Kühler (im stillen Lüfter-Profil) bringt. Hierfür werde ich wohl Cyberpunk 2077 testen (CPU- und GPU-anfordernd) und entsprechend vergleichen. Ich poste das Ergebnis dann im U3-Kühler-Thread. Lüfter: Grauenhaft. Wie erwartet viel zu hochfrequent. Ungefähr so wie beim Razer Blade 17. Aber selbst einige von euch finden das ja nicht in Ordnung, ich bin also - zumindest an der Stelle - nicht überempfindlich. Das ist auch kein Problem einzelner Geräte, die Lüfter hören sich halt so an. Für mich fast typisch für so flache Notebook. Beim Razer z.B. hab ich zwei oder drei Stück getestet, um ein Montagsmodell auszuschließen. Selbst mit eigener Lüfter-Steuerung bei z.B. maximalen 2.000 RPM wären die Lüfter immernoch viel zu schlecht. Man hört ja bereits so schon, dass das unangenehme Geräusch auch bei niedrigen Drehzahlen vorhanden ist. Und ganz hohe Drehzahlen kommen für mich grundsätzlich nicht infrage, auch wenn dort nur ein Rauschen vorhanden wäre (laut ist es dann trotzdem). Und die Temperaturen sind bereits schon zu hoch - für eine Reduktion der Lüfter-Drehzahl ist eh kein Spielraum vorhanden. Leistung & Temperatur Eigentlich wollte ich mehrere Spiele testen, aber ein fünfminütiger Lauf von Cyberpunk 2077 in 1920x1080px hat mir schon verraten, dass die CPU sehr heiß läuft und auch zum Throtteln beginnt (mit -100mv). Mal zum Vergleich: m17 R4: Die CPU throttelt bereits nach kurzem auf 2,9-3,0 GHz bei allen 8 Kernen, da nach kurzer Zeit eben 100 Grad erreicht werden. Die Lüfter laufen hierbei 2500/2300 RPM (Lüfter-Profil Still). Es liegen ca. 25W an. Im Lüfter-Profil "Ausglichen" (schon ordentlich laut) steigt der Verbrauch auf über 50W, dann liegen 3,8-3,9 GHz an. Wie also schon von mir vermutet, und auch beim R2 gewesen, wird die CPU im Lüfter-Profil Still ordentlich kastriert. Die GPU läuft aufgrund eines 79 Grad Temperatur-Limits ebenfalls mit 100-200 MHz weniger Takt (geht bis 1.515 MHz runter) als im Profil Ausgeglichen. Die CPU-Temperatur im Profil Ausgeglichen und 3,8-3,9 GHz liegt bei 90-95 Grad. Ich hatte ihn etwas hochgebockt. Im Lüfter-Profil Still ist die Temperatur nach eingesetztem Throttling auf nur 2,9-3,0 GHz / 25W etwas geringer. Area 51m R1: Die CPU läuft ohne Throttling auf 4,7 GHz (bis zu 62% mehr Takt) auf allen 8 Kernen, Temperatur pendelt sich hier auch bei 90-95 Grad ein, aber mit eigener Lüfter-Steuerung bzw. sehr leisen 2000/2000 RPM (!). Bei dem Standard-Lüfter-Profil Still, also ohne Mods, wäre die Temperatur natürlich geringer (8X Grad). Und wenn ich die CPU auf 8x4,2 GHz (analog zum m17 R4) runtertakten würde, würden wir wohl von 6X-7X Grad sprechen. Das sind dann 20-30 Grad Unterschied. Der Verbrauch bei 4,7 GHz liegt bei um die 100 Watt. Wie beim m17 R4 liegen auch beim Area 51m -100mv an (eigentlich sogar nur -75mv). Wichtig: die Tests liefen nur wenige Minuten. Bei stundenlangen Spielen wird das Throttling einsetzen bzw. sich verschärfen. Beim Area 51m hat man etwas Spielraum, beim m17 R4 eben nicht. Ja, Cyberpunk 2077 ist für die CPU wirklich ein Hardcore-Test, die meisten Spiele benötigen weniger CPU-Last/Verbrauch. Aber solche Spiele müssen ja auch sein. Ja, das Area 51m R1 ist dicker und schwerer bzw. ein Desktop-Replacement, der Unterschied ist aber dennoch größer als gedacht. Ja, in lauteren Lüfter-Profilen ist ja das Throttling beim m17 R4 weniger bis gar nicht mehr der Fall, aber selbst das stille Lüfter-Profil ist eben auch schon fürchterlich piepsig und laut. Und das die 3080 gut ist und entsprechend schneller als eine 2080 ist, braucht man denke ich nicht zu vertiefen. Wäre ja auch schlimm wenn nicht. Habe ich jetzt gar nicht erst getestet bzw. genauer miteinander verglichen. Entsprechende Benchmark-Tests haben ja schon andere gemacht. In einigen Spielen wird man mit dem m17 R4 durch die deutlich geringere CPU-Leistung dennoch mehr fps-drops und weniger min-fps als mit dem Area 51m R1 mit 2080 haben. Die GPU-Leistung alleine ist in vielen und immer mehr Spielen nicht entscheidend, das Zusammenspiel von CPU und GPU ist wichtig. Konkretes Beispiel: in Cyberpunk 2077 hab ich in der belebten Stadt mit dem Area 51m/2080 etwas mehr fps als mit dem m17 R4/3080. 😉 Ich wollte eigentlich aufwendigere Vergleichstests machen, aber bitte erwartet das nicht mehr von mir, ich halte es keine weiteren 5 Minuten mehr vor dem Teil aus, auch nicht im Profil Still oder im Idle, die Lüfter sind einfach auf jeder Stufe grauenhaft. Mein Fazit für das m17 R4: überraschend schwer (Gewicht), hatte ich nicht erwartet egal auf welcher Stufe die Lüfter laufen, sie sind immer viel zu hochfrequent selbst wenn die Charakteristik der Lüfter auf niedriger Drehzahl gut wäre: Lüfter leiser machen mit eigener Lüfter-Steuerung ist aufgrund der hohen Temperaturen nicht drinnen CPU-Leistung relativ schwach fürs Jahr 2021, und starkes Throttling ist im stillen Lüfter-Profil in vielen Situationen normal (2,9-3 GHz bei Cyberpunk 2077). wen ein dickeres/schwereres Area 51m (vielleicht bald R3 mit 3080) nicht stört, der kriegt hier was ganz anderes geboten. Das m17 R4 macht vieles deutlich schlechter, nur um ca. 34% dünner und ca. 36% leichter als ein Area 51m zu sein. Für mich persönlich einfach ein schlechter Tausch beziehungsweise ein schlechtes Verhältnis Dann noch meine Meinung zum Abkleben der Lüfter: Schön, wenn es was bringt. Dann auf jeden Fall machen. Ich glaube aber nicht, dass man damit den Großteil des hochfrequenten Geräusches wegbekommt. Etwas angenehmer glaube ich aber sofort. Außerdem braucht man für einigermaßen CPU-Leistung dann immernoch ein schnelleres Lüfter-Profil als Still. Es ist also für einige und vorallem für mich dann dennoch allgemein viel zu laut. Dann noch meine Meinung zur Aussage, dass das Area 51m zwei Netzteile braucht: Mit einem Mod braucht es nur noch ein Netzteil. Und für 30 Euro oder so kann man sich die beiden power jacks (dc in) als Ersatzteil hinlegen und wieder bei Verkauf zurückrüsten. Bei Reparatur / Techniker-Einsatz braucht man das gar nicht mal machen (ich spreche aus Erfahrung). Jetzt sagt ihr vielleicht, dass das ja ein Eingriff ist, den kaum jemand machen will: ja, aber ein LM-Repaste ist meiner Meinung nach ein vergleichbarer Eingriff. Dort könnte man sogar langfristig Spuren hinterlassen, bei dem Netzteil-Mod nicht.
    6 Punkte
  25. Servus aus dem Allgäu, da mir da Forum und ihr als Mitglieder bisher viel wichtige Infos geschenkt habt wollte ich jetzt meine Erfahrung und Werte ebenfalls mitteilen. Vieleicht hilft es jemandem bei der Entscheidung ob m17 oder nicht. Meine Werte als Bilder: mit der Konfig i9 und RTX 3070 bekommt man das 240 Watt Netzteil geliefert der i9, wie im geteilten Benchmark, lief mit UV und veränderten Turbo Ratio Limits in Throttlestop die GPU wurde mit +100 Core und +200 Memory im MSI Afterburner betrieben die Stabilität des Systems wurde mit AIDA64 Stresstest und 3dMark Dauertest gestern getestet und es lief ohne Probleme es wurden die Standardtreiber von Dell vom Auslieferungszustand verwendet Für die Lüfter nutze ich die "Glatte Linie" Funktion im ACC ab 70 bis 100 Grad Die GPU wird aber nur zum Spielen mit OC betrieben, im Alltag läuft sie mit den Standardwerten das Laptop steht auf einer IcyBox Halterung und hängt an einem VESA400 Arm in der Luft Meine Erfahrung: Ich hatte bisher ein Surface Book 2 15 und der Lüfter war fast genau so laut nach meinem Empfinden die pfeifenden, hundpfeife-ähnlichen, Lüftergeräusche gibt es bei mir definitiv nicht Die Tastatur ist super, ich mag sie. Sie ist weicher im Druck wie eine Logi MX Keys oder der MS Surface Tastatur die Verarbeitung ist einem Premiumprodukt angemessen im Idle ist der Lüfter kaum wahrzunehmen oder ganz aus das 4k Display ist super in der Bildqualität UV ist beim i9 nötig wenn man mehr Performance haben will Wieso i9 und 3070? Es wird, neben gelegentlichem Spielen, viel für Content Creation für Fotos und Texte genutzt sowie auch öfters bewegt. Daher sind kleineres Netzteil, 17 Zoll und weniger Grafikpower ein guter Mittelweg gewesen. Falls jemand noch mehr Werte braucht oder was wissen will einfach Fragen. Ich melde mich dann bei euch.
    6 Punkte
  26. Wie sicher einige mitbekommen haben, habe ich mir den AW17 R5 vom Capt.Ko zugelegt. An dieser Stelle noch mal Danke für die Abwicklung, Geduld, Versand, Chat usw. Hat alles TipTop geklappt ? Da es klar war, dass ich auch dieses Notebook mit LM und den ganzen Mods ausstatten werde, habe ich mir gedacht, dass ich diesmal alles sauber dokumentiere, um zu vergleichen, welche Veränderung, wie viel am Ende tatsächlich bringt. In Absprache mit Capt.Ko, habe ich Prime95 und Unigine Heaven als Basis genommen, mit dem ich die ganzen Tests durchgeführt habe. Alle Stresstests wurden immer unter den gleichen Bedingungen durchgeführt, dazu aber gleich im Detail mehr. Wie ihr euch sicherlich vorstellen könnt, waren das nicht gerade wenig Tests und der Aufwand nahm recht viel Zeit und Geduld in Anspruch. Testgerät: Alienware 17 R5 CPU: Intel i9-8950HK (PL 110W) GPU: Nvidia GTX 1080 (PL 200W) RAM: 16GB @ 2.400 MHz 2x PCIe m.2 SSD 1x SATA SSD QHD Panel + G-Sync PSU: 330W Benutze Software (+Geräte): ThrottleStop HWinfo Prime95 Unigine Heaven FarCry New Dawn + DB-Messer + Thermo-Laserpistole Getestet mit: Wärmeleitpaste (TG Kryonaut) Liquid Metal (TG Conductonaut) Heatsink-Mod, PCH-Mod, SSD-Mod immer UV -125mV Getestet auf: Flach auf dem Tisch Mit Erhöhung 2,5cm Mit U3-Kühler (gemoddet) Weitere Faktoren: Raumtemperatur 23,5 °C Abstand zur Wand 56 cm Lüfterprofil "Ausgeglichen" Energieoptionen "Standard" Letztes BIOS (1.6.2) Zum Stresstest, wie bereits gesagt, wurde mit Prime95 und Heaven das System belastet (Load). Mit ThrottleStop wurde immer -125mV eingestellt. Die genauen Einstellungen könnt ihr den Bildern entnehmen. HWinfo musste ich etwas aufräumen, da man sonst viel zu viele Werte sieht und das Ganze sehr unübersichtlich macht. Nach dem ich die ganzen Werte ausgeblendet habe, sah die Liste dann wie folgt aus: Der Load-Wert wurde wie folgt getestet: Ca. 15 - 20 Minuten Stresstest (Warmlaufphase) Anschließend HWinfo Reset dann min. 40 Minuten aufgezeichnet während des Stresstests Screenshot Der InGame-Wert mit FC New Dawn wurde genauso ermittelt. Der Idle-Wert war da etwas schwieriger. Obwohl ich alles vorher, wie Windows-Updates, unnötige Drittabieter-Tabs, etc (ab-) geschlossen hatte, konnte der Takt nicht bei allen Idle-Werten exakt gleich gehalten werden. Hier bleibt also ein wenig Spielraum mit der Vergleichbarkeit. Den InGame-Wert habe ich mit rein genommen, damit man zu dem synthetischen Stresstest, auch einen realen Stresstest hat. So kann man auch besser vergleichen, in wie weit der synthetische Stresstest einer echten Belastung entspricht. FarCry New Dawn habe ich immer zusammen mit meinem U3-Kühler getestet. Eben genau so, wie ich zuhause halt zocke. In allen Tests lief der U3-Kühler auf ca. 60 - 70%. Damit man sich besser vorstellen kann, wie es bei mir daheim aussah und wie ich getestet habe, habe ich von den verschiedenen Test-Szenarien einige Fotos gemacht. Flach auf dem Tisch: Mit Erhöhung 2,5cm: Mit gemoddeten U3-Kühler: Die Mods kennen wahrscheinlich viele von euch bereits. Vollständigkeitshalber, hier noch mal paar Bilder wie es aussieht: Kommen wir zur der Auswertung. Unten im Bild steht noch mal genau mit welchen Bedingungen getestet wurde. Ich werde immer die selbe Reihenfolge nehmen: "Flach auf dem Tisch" dann "Mit Erhöhung 2,5cm" und abschließend "Mit U3-Kühler". Erst Idle, dann Load und am Ende InGame. 1.0 Idle-Werte mit Wärmeleitpaste: 1.1 Load-Werte mit Wärmeleitpaste: 2.0 Idle-Werte mit Liquid Metal: 2.1 Load-Werte mit Liquid Metal: 3.0 Idle-Werte mit HS-Mod und LM: Hier habe ich noch ein zusätzlichen Test gemacht, wo das Notebook selber nicht mehr kühlt, sondern nur noch der HS-Mod und der U3-Kühler 3.1 Load-Werte mit HS-Mod und LM: 4.0 InGame-Werte (FarCry New Dawn) mit U3-Kühler: Ja, das sind schon verdammt viele Bilder und Tests. Mich hat's aber auch selber interessiert, was die ganzen Veränderungen für Auswirkungen haben. Was sofort auffällt, mit der CPU laufe ich in jedem Test sofort ins TT. Die CPU taktet so lange hoch bis das thermale Limit erreicht wird und drosselt dann wieder, kühlt ab, erhöht wieder den Takt bis das Limit wieder erreicht wird usw. Deswegen kann mehr hier eher den dauerhaft, gehaltenen Takt als die Temps beachten/ bewerten. Das war bei meinem alten R4 mit dem 7820HK noch ganz anders. Dort kam ich mit den selben Bedingungen (LM + Mods + U3) bei InGame-Werten nicht über 73°C im Durchschnitt. Interessant wäre vielleicht noch ein Test mit dem 8950HK bei dauerhaften 4.2 GHz oder so. Mal gucken was das am Ende ausmacht. Was mir schon mal positiv auffällt ist, dass jede Veränderung grundsätzlich eine Verbesserung war. Wobei man auch dort etwas differenzieren muss. Vergleicht man den Erhöhungstest mit den anderen beiden (Tisch und U3), ist hier das System äußerlich am heißesten. Das zeigen auch die Werte des PCH und Arbeitsspeichers. Im letzten Load-Test mit dem U3-Kühler haben wir hier einen Unterschied von satten 23,7 °C. Da soll mal einer sagen, dass Frischluft nicht viel bringt. Ein ähnliches Ergebnis konnte ich auch mit meiner Laserpistole messen. Die wärmste Stelle auf dem Notebook war oberhalb beim Alienware-Knopf. Mit dem U3-Kühler habe ich hier max. 49,2 °C gemessen, flach auf dem Tisch waren es max. 51,2 °C und mit der Erhöhung max. 52,9 °C. Jetzt könnte man denken, dass der Unterschied nicht so gewaltig ist, aber hier strahlt die Wärme deutlich weiter ins Tastaturfeld/ Palmrest hinein. Sprich, ist es oben heißer, wird auch die gesamte Tastatur/ Palmrest wärmer, so wie der gesamte Rest des Notebooks. Am liebsten hätte ich diese Werte mit einer Wämebildkamera aufgezeichnet, aber die ist mit rund 400+ € nicht gerade günstig. Daher nur die Laserpistole. Naja, immerhin überhaupt ein Wert. Im großen und ganzen mit den Tests und Mods sehr zufrieden. Jede Veränderung hat sich positiv auf die Kühlung und somit auf die Leistung ausgewirkt. Vergleich man den ersten Load-Test (Flach auf dem Tisch + WLP) mit dem Letzten (HS-Mod + LM + U3-Kühler) ist es doch schon ein gewaltiger Unterschied. Wie geht's weiter? Um ehrlich zu sein, sind mir noch 2-3 weitere Ideen eingefallen, wie man die Kühlung vielleicht noch weiter verbessern könnte. Auch hier werde ich wieder nach dem gleichen Testverfahren vorgehen. Wobei der HS-Mod jetzt natürlich drin bleibt ? Kein Bock jetzt wieder alles raus zu reißen. Ich halte euch da auf dem Laufenden. Abkürzungen: WLP = Wärmeleitpaste LM = Liquid Metal HS = Heatsink (engl. Kühlkörper) Mod = Modifikation UV = Undervolting PL = Powerlimit TT = Thermal Throttling Idle = Leerlauf Load = Prime95 & Heaven
    6 Punkte
  27. Ich feiere gerade ein wenig Da gibt wieder Kunden, die nicht warten können und gerade zu betteln nVidia das Geld in den Halz zu stecken (Stundenlang im Webshop F5 drücken) und dann ist es wie es immer ist, die ersten Versionen eines Produktes haben eben noch Kinderkrankheiten oder sogar größere Probleme. Und dann wird geheult. Ich lebe immer sehr gut damit ein wenig zu warten und dann ein ausgereifteres Produkt für einen angemessenen Preis zu kaufen. Sorry wenn ich hier provoziere, aber es lohnt sich drüber nachzudenken. P.S.: Für diese tollen und kreativen Beitrag erwarte ich mindestens 6 Likes
    6 Punkte
  28. Hallo zusammen, jetzt ist es endlich so weit. Gestern sind die Platinen angekommen und ich habe mich gleich ans löten und programmieren gemacht. Ich muss sagen ich bin mit dem Resultat sehr zufrieden. Dank des jetzt verbauten Oszillators ist die PWM-Frequenz nicht mehr zu hören. Heute habe ich mit dem Einbau in meinen 18er begonnen. Ich bin noch nicht ganz fertig aber es ist schon funktional. In dem Moment in dem ich das schreibe laufen alle drei Lüfter gleichmäßig und leise. Zuerst habe ich die Temperatursensoren an meinen Kühlkörpern abgebracht. Bei der Auswahl der Sensorposition sollte darauf geachtet werden, den Sensor möglichst dich am DIE zu positionieren, um keine verfälschten Ergebnisse zu erhalten. Wichtig: Der Kühlkörper ist auf Masse des Notebooks gelegt. Also muss man penibel darauf achten, dass der Sensor gut isoliert ist. Zur Befestigung und Isolation habe ich einen Wärmeleitkleber von "silverbead" benutzt. Die Leitungen konnte ich bequem beim Festplattenkäfig nach unten führen. Wie auf folgenden Bildern zu sehen ist habe ich, die von @Sk0b0ld vorgeschlagene, Plug&Play Lösung umgesetzt. Mit einem einfachen Steckersystem Kann jetzt die Platine mit den Laptoplüftern verbunden werden. Es muss nichts am Laptop durchgeknippst oder gelötet werden. Im eingebauten Zustand: Was jetzt noch fehlt sind die Stecker, um die Platine mit samt Lüftern aus den Anschlüssen auf dem Mainboard mit Strom zu versorgen. Aktuell hängt das ganze an einem USB-Port, was zwar funktioniert aber nicht sehr gut aussieht. Die Platine soll bei mir in einen freien Slot des HDD-Käfigs. Eine entsprechende Halterung werde ich mit dem 3D-Drucker fertigen. Davon mache ich natürlich auch nochmal ein paar Bilder. Auch ein Potentiometer ist auf der Platine vorbereitet. Das muss ich aber noch programmieren. Ich hatte noch keine Zeit ausgiebig zu testen aber meine ersten Eindrücke sind ziemlich positiv. Ein paar kleine CPU und GPU Benchmarks habe ich auch schon laufen lassen. Vor allem fällt auf die leise der Laptop geworden ist. Im Leerlauf sind die Lüfter leiser als die HDD und nur zu hören, wenn man das Ohr an den Laptop legt. Diese langsame Drehzahl reicht aus um sowohl CPU als auch GPUs bei ca. 44°C zu halten (Vorher: 50-55°C). Wird der Rechner kurzzeitig belastet (Start eines anspruchsvollen Programms oder kompilieren eines kleineren Codes) dann reagieren die Lüfter kaum. Vorher war immer ein nerviges hochdrehen in dem Moment in dem die Last angelegt wird. Da der Kühlkörper bei so einer kurzen Beanspruchung kaum wärmer wird, reagieren auch die Lüfter sehr entspannt. Auch das hoch- und runterdrehen der Lüfter erfolgt quasi Stufenlos und ist somit subjektiv empfunden leiser. Besonders auf die Grafikkarten hat die neue Lüfterregelung einen sehr positiven Effekt, da sie durch den größeren Kühlkörper (im Vergleich zur CPU) eine größere thermische Trägheit besitzen. Die Handhabung des Programms ist verhältnismäßig einfach und mit Anleitung auf für die zu verstehen, die nicht programmieren können. In der "fanTable" Datei könne so viele Tabellen angelegt werden wie man möchte. Die kleinste Auflösung liegt bei 1°C. Also kann man für 0°C - 100°C auch 100 verschiedene Lüfterkurven anlegen. Oder man benutzt meine Linearisierungsfunktion, um die Zwischenräume bequem mit passenden Werten zu füllen. So läuft der Lüfter immer sanft hoch ohne nervige Drehzahlsprünge. Falls es jemanden gibt, der Interesse an dieser Platine hat, gern bei mir melden. Die reinen Bauteilkosten belaufen sich auf ca. 10€ (genau muss ich das dann nochmal nachrechnen). Das Programm und die CAD-Daten der Platine würde ich auch kostenlos zur Verfügung stellen. Zum Thema, wie man die Platine bestückt und programmiert, würde ich bei Zeiten und Interesse nochmal eine Anleitung schreiben. Lasst mich bitte wissen, wie ihr die Version 2 findet.
    6 Punkte
  29. Nur meine persönliche Meinung: Die wenigen Brocken an Informationen hier reichen doch eigentlich nicht aus, um die Supportqualität zu kritisieren. Man weiß einfach nicht genug darüber, was genau kommuniziert wurde. Ich finde es im übrigen sehr schade, wenn ein User ein Problem vorstellt (allerdings ohne Detailinformationen) und es dann nur noch heißt "Ich hab es dann selbst noch hinbekommen" , ohne dass die eigentliche Lösung gleich direkt hier ins Forum gestellt wird. Dabei gibt es so viele gute Beispiele von Mitgliedern, die ihre Lösungen für Problemstellungen unaufgefordert mit der Community teilen.
    6 Punkte
  30. Vor einigen Wochen habe ich die "Anfrage" bekommen, ob ich das oben genannte Gerät repasten, repadden, modden/ umzubauen würde, damit es möglichst lange die bestmögliche Leistung erzielt. Da man dieses Notebook relativ günstig bekommt (neu 500 - 600 € ebay KA), war ich natürlich schon neugierig was man bei dem Preis für eine Leistung erwarten kann. Bei dem Gerät handelt sich um ein Clevo N857EK1 15"-Notebook, gebrandet ist es aber als Bluechip NB5800. Ist bei Clevo aber nicht unüblich das sie die Geräte für andere Firmen branden. So wird das Notebook ausgeliefert: Es ist natürlich ein Plastikbomber und das will ich auch gar nicht verschweigen, aber 500€ für i7-8750H + 1050Ti + 8GB RAM @ 2.666 MHz + 256GB m.2 SSD ist natürlich schon verlockend. Daher hat es mich brennend interessiert, was man aus dem Teil rausholen kann. Noch ein paar Infos zum Notebook. Das beiliegende Netzteil liefert 120W. Das Control Center ist...ok, aber das war's auch schon. Gut, AWCC kann sich jetzt auch nicht mit Ruhm bekleckern. Das zickt auch immer mal wieder mal. Ansonsten ist das Notebook von der Verarbeitung ok, das was man halt in dem Preissegment erwartet. Das Powerlimit der CPU liegt bei allen Einstellungen bei PL1: 45W/ PL2: 78W Pro: Viele USB-Ports, kein festgelöteter RAM, kein gedrehtes Mobo, relativ leicht, SIM-Karten Slot + LTE/ UMTS-Modul Slot inkl. Antennen vorbereitet, RAM bis 32GB erweiterbar, 2,5" SATA Anschluss inkl. Halterahmen, HM370 Chipsatz, Card-Reader, Ersatzteile günstig, Preis-/ Leistung unschlagbar. Contra: Viel Plastik, Kühlleistung mittelmäßig*, Tastaturfeedback etwas lasch, 120W Netzteil zu schwach dimensioniert*, keine Ports hinten, nur 60 Hz FHD ohne G-Sync, Treiber-Support über Clevo naja. Natürlich kann man so ein Notebook von der Haptik und Optik nicht mit einem Alienware Notebook vergleichen, aber da zahlt man auch das 3-fache für die selbe Leistung. * wahrscheinlich ist die Kühlleistung und das Netzteil auf die "normale" Gesamtleistung des Notebooks abgestimmt. Durch das modden konnte ich deutlich mehr Leistung rausholen, wodurch dann einige Komponenten an ihre Grenzen gekommen sind, dazu aber gleich im Detail mehr. Schauen wir uns zunächst das Notebook unter der Haube an. Was natürlich direkt auffällt ist, dass das VRM, sowohl von CPU komplett und GPU teilweise überhaupt nicht gekühlt wird. Das haben auch die Tests gezeigt. Die CPU ist immer wieder mal auf die 800 MHz gefallen. Das ist immer ein guter Indikator, dass das VRM wie MOSFETs oder die Induktor thermal an ihre Grenzen stoßen und drosseln. Deshalb sieht man bei "Gaming"-Notebooks oft eine teilweise Kühlung des VRM (Stichwort Wärmeleitpads). Interessant ist auch, dass die Lüfter sich an den äußeren Rändern des Notebooks befinden, aber der einzige Lufteinlass hierfür nur in der Mitte da ist. Wahrscheinlich versucht man durch die angesaugte Frischluft in der Mitte das VRM mit zu kühlen. Sicherlich geht das, aber effektiv ist das nicht. Gerade wenn die angesaugte Luft auch etwas wärmer ist. Zum Umbau. Schön war an dem Clevo, dass ich verhältnismäßig sehr viel Platz hatte. Dadurch konnte ich auf so ziemlich jede Komponente der Stromversorgung einen Kühlkörper montieren. Erstaunlicherweise meist auch immer den 6mm Kühlkörper anstatt die flachen 3mm. Wärmeleitpads wurden gegen Artic Pads getauscht. WLP habe ich die Noctua NT-H2 genommen. Plus diverse kleine Verbesserungen. Hier mal einige Bilder vom Umbau: Das Backcover wurde neu für um die 20€ bestellt. Das Originale bleibt original. Nach dem ganzen Umbau habe ich angefangen diverse Tests und Benchmarks laufen zu lassen. Das Netzteil habe ich sicherheitshalber immer mit gemessen. Dabei ist mir aufgefallen das mein Messgerät nach dem Umbau bis 140W angezeigt hat. So wurde beispielsweise bei Cinebench der Boost solange gehalten bis das Netzteil schlapp machte und auf 92W Ausgangsleistung die CPU weiter versorgte. Durch Transformation 230~ auf 19,5= hat man 12-20% Verlustleistung usw. Jedenfalls wollte die CPU schon länger, aber das Netzteil leider nicht. Also habe ich probeweise ein 180W Netzteil angeschlossen und ausnahmslos in jedem Benchmark mehr Punkte erreicht. Schon interessant.... Folgende Leistung kann man von dem Notebook nach der Optimierung erwarten: Alle Tests wurden nach dem Repaste/ Umbau gemacht. Stock-Setting bezieht sich einfach nur auf kein UV und kein GPU OC. Neue WLP + Mods usw. ist mit einbegriffen. Der U3-Kühler bringt bei der kleinen Öffnung in der Mitte nur begrenzt was, aber immerhin ein bisschen. Untervolt der CPU war auf -140mV. GPU OC war +195 Takt & + 1.000 Mem (wahrscheinlich nur mit passender Kühlung/ Mod möglich). FarCry 5 Benchmark. Mal mit und mal ohne HD-Texturen:
    6 Punkte
  31. Ich habe wieder etwas gebastelt und da es in gewisser Weise was mit Notebooks zu tun hat, dachte ich, dass es vielleicht für PC/ Notebook-Liebhaber, Enthusiasten interessant sein könnte. Wie kam ich zu der Idee? Meine Freundin und ich wollten für's Wohnzimmer eigentlich ein schönes Bild, jedoch wollte ich etwas was mit PC, Notebook, Computerelektronik etc. zu tun hat. Leider war die Auswahl mehr als bescheiden. Also schlug ich vor, dass ich was "Passendes" baue. Meine Freundin konnte sich zwar nicht so richtig was drunter vorstellen, willigte aber trotzdem ein und wünschte sich, dass es zumindest leuchten soll. Alles klar, challenge accepted ? Anfangs war die Überlegung da eine Art Weltkarte aus PC Teilen zu bauen. Jedoch verwarf ich diese Idee aus verschiedenen Gründen wieder. Zu groß, keine Lust auf Platinen fräsen, Idee bereits umgesetzt. Also überlegte ich mir was anderes. Irgendwie wollte ich was mit Notebook-Teilen oder zumindest nur RAM und CPU. Über einen Kollegen, der mir noch was schuldig war, besorgte er mir über einen Verwerter (Schrotthändler) einige Lenovo Thinkpads. Das war natürlich optimal für das Projekt. Bevor ich mit dem eigentlichen Projekt starten konnte, musste vorher jede Menge Arbeit gemacht werden. Die ganzen Notebooks mussten bis zur letzten Schraube zerlegt werden, die Mainboards mussten alle von Wärmeleitpaste und -pads gereinigt werden. Alle möglichen Sticker inkl. Kleber mussten ab und nicht zu vergessen, auch alle Anschlüsse wie USB, Card-Reader, etc mussten von allen Boards runter. Alleine das hat schon drei lange Abende gedauert...? Ehrlich gesagt, dachte ich das es weniger Arbeit wird, viel weniger..... Hier mal ein Bild nach dem zweiten Abend. Mit den nackten Mainboards konnte man dann schon mehr machen. Nun ging es an die Auswahl der Form. Ich hatte mich für eine Art längliche Sternform entschieden und das ganze grob auf Papier ausgelegt und abgezeichnet. Gemessen, Mainboard bis Mainboard war das Bild 184 x 95 cm. Ok, die Form war gewählt, aber wie bringt man das ganze jetzt bzw. später zum leuchten. Es ab eigentlich nur drei Möglichkeiten. Möglichkeit 1: von außen mit Strahlern wie auf dem Weltkartenbild. Möglichkeit 2: zwischen Platte und Wand LEDs einbauen. Oder Möglichkeit 3: zwischen Mainboard und Grundplatte Leuchtmittel einsetzen. Ich entschied mich für die dritte Option, später dazu mehr. Jedenfalls brauchte ich zur Umsetzung der Beleuchtung einen Abstand vom Mainboard zur Befestigungsplatte. Da ich keine passenden Abstandhalter im Internet gefunden hatte, entschloss ich mich sie selber zu bauen. Ich habe 136 Stück von den kleinen Abstandshalter angefertigt. ? Btw: das macht keinen Spaß^^. Die Schwierigkeit bestand darin das man alle Dinger gleich groß bekommt. Das ist mir mehr oder weniger recht gut gelungen. Ein Rohrscheinder ist an dieser Stelle absolut Pflicht. Mit den Hülsen konnte ich dann das erste Muster fertigstellen. Gut, die Schrauben waren noch etwas zu groß, aber so auf den ersten Blick gefiel mir das schon ganz gut. Im nächsten Schritt besorgte ich mir eine große (15mm) Siebdruckplatte und übernahm die abgezeichnete Form aufs Holz. Die roten Linien dienten zum ausrichten. Das ganze grob angezeichnet und ab auf die Säge. Wie schon bei den 136 Hülsen kam die nächste Folterarbeit....Löten. Ich habe allein fürs löten inkl. testen 9 - 10 Stunden gebraucht. Obwohl ich in dieser Arbeit routiniert bin und gescheites Werkzeug habe, kann man es nicht viel schneller hinkriegen, weil es so eine winzige Fummelarbeit ist. Als Beleuchtung nahm ich CCT Stripes, die das Weiß-Spektrum abdecken. Schon von meinem Tornado-Projekt wusste ich, dass ich mit bunter Kirmesbeleuchtung Zuhause nichts anfangen kann. Wie auf den Bilder zu sehen ist, sind die Stripes auf der Unterseite der Mainboards. So hat man eine indirekte Beleuchtung, die auf der Grundplatte reflektiert und durch alle Öffnungen (Befestigungslöcher z. B.) im und außerhalb des Mainboards schimmert. So Idee zumindest. Deswegen entschied ich mich auch für die dritte Möglichkeit das Bild so zu beleuchten. Natürlich unter dem Aspekt, dass damit auch die meiste Arbeit verbunden ist. Egal, schließlich baut man nicht jeden Tag so ein Bild. Wenn schon, denn schon. Nach dem Löten ging's wieder an die Platte. Die hat etwas Farbe bekommen. Nun ging es so langsam in den Endspurt. Nur noch alles verschrauben und verkabeln. An die anfänglichen Kabelfarben (weiß, gelb, rot) konnte ich mich später leider nicht mehr halten, weil mir das Kabel ausgegangen ist. Ehrlich gesagt hatte ich keine Lust neues zu bestellen, weil ich dafür das Projekt 2-3 Tage liegen lassen müsste. Außerdem habe ich jede Menge anderes Kabel zuhause liegen. Also nehmen was da ist und weiter.... Die Phasen wurden passend verdrillt und verlötet. Als (einzig) sichtbares Kabel nahm ich ein schwarz gesleevtes (stoffumantelt) Kabel. Das ist dezenter als ein schwarzer Kabelkanal. Im letzten Schritt kamen noch Abstandshalter an die Rückseite des Bilds. Damit auch die Wago-Klemmen inkl. der Kabel genug Abstand zur Wand haben. Im nächsten Beitrag geht's weiter, sonst explodiert dieser hier noch^^
    6 Punkte
  32. Schon fast vergessen. Hier noch mal beide Bilder in High Resolution als Download. Da kann man sich jeden Chip und Stecker noch mal im Detail angucken. Am besten die Bilder über den Button "Herunterladen --> Direkter Download" speichern. Über Rechtsklick -> Grafik speichern unter... komprimiert er deutlich die Qualität. AW17 R5 Mainboard High Resolution
    6 Punkte
  33. Es gibt sehr gute Neuigkeiten! Ich habe es geschafft. Die Bios Chips (wie sich herausstellte zwei an der Zahl) habe ich ausgelötet und mit einem CH341a Programmer beschrieben. Die dafür nötigen Dateien habe ich nach sehr langer Suche im Internet gefunden. Für alle, die auch einmal in meine Situation geraten sollten: Mainboard ausbauen Alle Bauteile (RAM, CPU, GPU, usw) vom Mainboard entfernen, dann lässt sich das Mainboard bequemer händeln Wichtig: CMOS Batterie ausbauen und über die "CMOS" Kontakte, in der Nähe der unteren RAM Speicher, die Restspannung entfernen Der eigentliche Bios Chip ist der Winbond 25Q64FVSIQ, der sich auf der Oberseite des Mainboards etwa zwischen den beiden Scharnieren befindet. Diesen Chip auslöten (mit geeignetem Werkzeug und einer sehr ruhigen Hand). Vor dem Flashen auf die richtige Polung achten. der Chip hat einen kleinen Punkt, der den Pin Nummer 1 markiert. Programm zum Flashen installieren: (die erste Software für den CH341a die ich gefunden habe) Zur Sicherheit kann der Inhalt des Chips ausgelesen und gespeichert werden bevor der Chip erst gelöscht und dann mit der neuen Datei beschrieben wird. Die nötigen Dateien habe ich von unseren Kollegen aus diesem Forum: http://forum.notebookreview.com/threads/request-alienware-17-spi-dump.825441/ Nach dem erfolgreichen Schreiben den Chip wieder richtig herum auf das Mainboard löten. Alle nötigen Geräte für einen Startversuch einbauen und testen. Bei mir hat es leider noch nicht funktioniert. Auslöten des zweiten Chips (Winbond 25Q80BYSIG) mit der Kennzeichnung "U2" und genau wie den ersten bespielen. Einlöten - Testen - und hoffentlich mit Erfolg! Beim Starten des Laptops kamen fünf Piepcodes (CMOS - Batterie). Das liegt einfach daran, dass natürlich keine Einstellungen mehr gespeichert sind. Den Laptop neustarten und beim Start die Fn-Taste gedrückt halten. Dann wird der Fehler quittiert und das Bios startet. Ich gebe selbstverständlich keine Garantie auf meine Ratschläge, mir haben sie jedenfalls den Kauf eines teuren Mainboards erspart. Bei Fragen könnt ihr euch gern bei mir melden. Ich hoffe ich kann damit jemandem helfen, der genau so verzweifelt versucht seinen Alien zu retten.
    6 Punkte
  34. So sieht das unter performance im BIOS bei mir aus Hier noch mein Score mit den Settings von oben und im Overdrive Modus (AWCC). Bitte beachte aber, das ich komplett auf richtiges Liquid Metal gewechselt habe auf CPU und GPU. Hier noch der Score mit dem Performance/Leistung Modus im AWCC: Hier noch ein TS mit zusätzlich 250/1000Mhz OC auf GPU:
    5 Punkte
  35. Das habe ich nicht probiert, ich musste irgendwann mal meine custom Settings laden und dann habe ich OC wieder aktiviert und den UV eingestellt. Bisher läuft das m18 astrein und am stärksten von allen von mir getesteten RTX4000er Notebooks. Ich weiß nicht ob es an Alienware liegt, aber hier steht Gaming im Fokus und das merkt man. Es funktioniert einfach Repaste kann sicherlich noch mehr rausholen, aber nicht zwingend notwendig. Sehr positiv überrascht bin ich tatsächlich vom Sound und von den Lüftern. Wenn ich mir was wünschen dürfte dann wäre es die Displayqualität aus dem Blade 16 und das Farbdesign vom X17/Area51m Ansonsten alles Top 👍🏻
    5 Punkte
  36. Wenn du den nach Deutschland bringst wird Einfuhrumsatzsteuer fällig. Ich glaube kaum das sich das dann rechnet wenn noch mal 19% drauf kommen. ,,Überschreitet eine Ware die Freigrenze, etwa ein Notebook für 850 Euro, musst Du 850 Euro verzollen. Die Einfuhrabgaben sind auf den Gesamtwert der Ware zu bezahlen und nicht nur auf den Anteil, der die Freigrenze übersteigt.,, https://www.finanztip.de/einfuhrzoll/ Klar könnte man behaupten das man das Ding vor der Reise gekauft hat aber erkläre dann mal die QWERTY Tastatur. Doof sind die ja auch nicht und: ,,Befinden sich nach Abzug des Freibetrags Waren für mehr als 700 Euro im Gepäck und werten die Behörden das Verhalten als nicht nur leichtfertig, leiten die Zöllner in der Regel ein Strafverfahren wegen versuchter Steuerhinterziehung ein.,, Auf einen Versuch würde ich es nicht ankommen lassen. Wäre mir zu viel HickHack und potentielles Theater, seis wegen Zoll oder Garantie.
    5 Punkte
  37. Moin, ich bin neu hier im Forum. Eigentlich wollte ich mich letztes Jahr schon bei Euch anmelden, nachdem ich den Aurora R11 zum Geburtstag geschenkt bekommen hatte. Hier nochmal ein kurzer Hinweis für die Admins. Bei einer neu Registrierung kann ich nur ältere Alienware Rechner auswählen. Der R11 oder auch mein jetziger Rechner, der R13 ist leider nicht mit auswählbar, das nur kurz zur Info Nun zum eigentlichen Thema. Ich bin seit Anfang Januar 22 stolzer Besitzer eines Aurora R13 mit folgender Config: Aurora R13 mit Kyro Tech + Seitenfenster und zusätzlicher Seitenabdeckung I9-12900KF 32GB DDR5 mit 4400 MHz Geforce RTX 3080 LHR 750 Watt Netzteil Eigentlich war ich letztes Jahr bereits mit dem R11 unzufrieden. Permanente Throttling Probleme durch Überhitzung der CPU (I7-10700 KF) machten mir zu schaffen und war kurzzeitig am überlegen ob ich das ganze System wieder an Dell zurücksende. Durch den Engpass der Grafikkarten hab ich mich aber dazu entschlossen das System zu behalten und habe jede Menge Arbeit reingesteckt um das System in den Griff zu bekommen. Dabei wurden jegliche Lüfter ausgetauscht, eine neue und bessere Wärmeleitpaste verwendet und die CPU "undervoltet", als auch entsprechend die Wattzahl bei TDP PL1 und 2 geändert. Seitdem läuft der Rechner recht zufriedenstellend. Nicht perfekt aber ok. Seit der Ankündigung des R13 war ich sofort verknallt. Für mich ist der R13 vom Design her einer der schönsten Computer die ich bisher gesehen habe und ich habe schon etliche gesehen (wie immer Geschmacksache). Ich bin 51 Jahre alt und habe mir über die Jahre meine PC's immer selber zusammengestellt und zusammengebaut. Ich bin mittlerweile aber auch faul geworden und durch die jetzige Marksituation interessieren mich Komplettsysteme mehr, da ich auch bei Dell bzw Alienware einen 3 Jahre Premium Support genieße (beim 11er sind es 2 Jahre). Wie dem auch sei, beim R11 musste ich durch den Lockdown letztes Jahr knapp 3 Monate auf die Lieferung warten und war überrascht das es beim R13 gerade mal 1 Woche gedauert hatte. Vom Bestellprozess bis zur Lieferung war das für Dell Verhältnisse Lichtgeschwindigkeit! Nun zum eigentlichen Feedback des Aurora's R13: Ich habe die Kiste auf der Dellseite mit gerade mal 3 von 5 Sternen bewertet, warum das ? Trotz der Kyro-Tech Lösung und des größeres Gehäuses + der 2 zusätzlichen Lüfter, habe ich das gleiche Problem wie damals mit dem R11. Das Ganze System drosselt in kürzester Zeit wenn R23 läuft, dabei wird der komplette Rechner so unerträglich laut (wie beim R11 nur noch ein tick lauter) das ich es kaum mehr am Arbeitsplatz aushalte und ich den Computer 2 Räume weiter immer noch als störend empfinde. Unglaublich aber war, Dell hat leider immer noch nichts dazu gelernt und ich bin mir sehr sicher, das der I9-12900KF völlig ungeeignet für eine 120mm AiO Kühlung ist. Vielleicht ist es beim I7-12700KF etwas anderes, aber ich kann den I9 für dieses System leider nicht empfehlen. Ich verstehe auch nicht, wie man so einen Computer auf den Markt schmeißen kann (da er ja sogar in Kooperation mit Intel entstanden ist und Intel für diesen auch Werbung macht). Der Dell Kundendienst ist hierbei auch mal wieder eine Katastrophe da die Mitarbeiter leider kein Plan haben. Außer ein zurücksenden oder Gutscheine für den nächsten Einkauf, können die einem nicht wirklich weiter helfen. Also was tun, zurücksenden ? nein...ich will und möchte den Rechner dennoch behalten und eigentlich bin ich auch ein alter Alienware Fanboy 😉 Was hab ich getan. Nun, das Gleiche wie damals mit dem R11. Als Wärmeleitpaste habe ich diesmal die Thermal Grizzly Kryonaut Extreme genommen und habe dadurch ca. 2 bis 3 Grad einsparen können. Auch die Lüfter habe ich mit den Noctua NF-A12x25 PWM chromax.black.swap getauscht. Hierbei eine kleine Info. Nicht die Noctua NF-A12x25 PWM in Braun nehmen, da beide Lüfter nicht zentriert im vorderen Gehäuse sitzen. Es sieht etwas dämlich aus, wenn man vorn auf dem Rechner sieht und 2 braune Lüfter durch Luken die nicht zentriert sitzen. Leider klappt das "Undervolting" mit ThrottleStop nicht mehr vernünftig unter Windows 11. Kein Plan warum, aber jedesmal wenn ich dort eine Einstellung vornehme läuft der komplette Rechner mit gefühlt 1Mhz und es hilft nur ein Reboot. Überhaupt ist Windows 11 bisher eine Vollkatastrophe. Ich frage mich welche Drogen bei Microsoft konsumiert werden. Viele Programme wie ThrottleStop (einer meiner wichtigsten Tools) funktionieren nicht mehr vernünftig und es liegt nicht am Tool, sondern an den Sicherheitseinstellungen von Windows 11. Spiele wie bspw Star Citizen liefen auf Win10 wesentlich weicher und flüssiger mit meinem R11 (wo ist der Performancesprung mit dem MS für Win11 seit Ewigkeiten wirbt ?). Die ganze Oberfläche ist sehr gewöhnungsbedürftig. Aber leider muss ich ja Win 11 nutzen um das volle Potenzial des I9 auszuschöpfen. Ich muss nun auf XTU zurückgreifen, da mir das AW Bios auch keine Möglichkeiten bietet, dass Throttling in den Griff zu bekommen (eigentlich ein Wahnwitz für ein System das knapp 4K kostet). Ich habe eine etwas aggressivere Einstellung in XTU eingestellt. Core Voltage Offset und die Performance/Efficient Cache Voltage Offsets habe ich mittlerweile auf -0,120 V und die CPU auf 125 Watt beschränkt. Im Boost für 56 Sekunden auf 190 Watt. Der Rechner läuft nun sauber und rund, wird nicht mehr so heiss und ist dadurch auch schön leise. So wie es eigentlich sein müsste. Aber nein, ich habe dadurch leider wieder heftigste Performance Einbußen. Im R23 kann ich zufrieden sein die 18K im Multi zu knacken. Hier übrigens mal ein Link zum Thread den ich direkt bei Intel gepostet habe, da mir Dell wie ich ja erwähnt habe, außer ein zurücksenden nicht weiterhelfen konnte. Der Thread ist leider in englisch und ich bin im englisch leider nicht so bewandert ...vielleicht interessiert es den ein oder anderen ja. https://community.intel.com/t5/Processors/INTEL-DIAGNOSTIC-TOOL-FAILING-Brand-String-CPUFreq/m-p/1356498/emcs_t/S2h8ZW1haWx8dG9waWNfc3Vic2NyaXB0aW9ufEtaNE5BTEg5UE5VWFFVfDEzNTY0OTh8U1VCU0NSSVBUSU9OU3xoSw#M56196 Lange Rede, kurzer Sinn...kann ich den Aurora R13 mit I9 empfehlen ? ganz klares NEIN! Dell hat außer dem schicken Design nichts dazu gelernt. Es werden immer noch Bauteile verbaut, die nicht wirklich zusammen passen. Dell wirbt nun, das durch die Größe des neuen Gehäuses nun die Möglichkeit besteht, in Zukunft bessere und längere Grafikkarten zu verbauen, was an sich ja auch ein cool und ein Sprung nach vorn ist. Nur was nutzt mir ein 750 Watt Netzteil wenn ich eine 3090TI einbauen möchte ? Facepalm
    5 Punkte
  38. Ich und die meisten User hier würden dir dringend davon abraten einen Desktop von Dell zu kaufen. Ich selbst wollte auch mal einen alienware Desktop kaufen. Ein area51 oder ein Aurora. Das im Aurora nur sehr kurze gpus rein passten hat mich zum glück davon abgehalten es zu kaufen. Ich hab mir dann ein System von Mindfactory zusammen bauen lassen mit meiner wunschkonfiguration für über 1000 Euro günstiger als ein vergleichbares Alienware Aurora. Die Nachteile des aurora welche mir gerade einfallen - billigste Materialen - zu teuer - schlechte Kühlung - zu kleines case für große gpus - schlechte Software - Sehr schlechte Leistung im vergleich zu denselben Komponenten in einem guten case. - zu laut Aber aktuell würde ich jetzt kein System mit 3070 kaufen 1,5 Jahre nach Release und noch über UvP.
    5 Punkte
  39. Da der Area51m nun schon etwas länger auf dem Markt ist und man auch mittlerweile Ersatzteile dafür bekommt, habe ich mir gedacht, dass es hilfreich sein könnte zu wissen welche Ersatzteilnummern die einzelnen Teile haben und in welcher Preisklasse sie sich befinden. Falls man modden/ upgraden möchte, einfach nur die Farbe tauschen oder ein Gebrauchtgerät erworben hat und etwas austauschen muss, weiß man so nach welcher Ersatzteilnummer man suchen muss und in welcher Preisregion diese sich befinden. Alle genannten Ersatzteilnummern beginnen mit "DP/ N:" und können direkt über Dell bestellt werden. Der genannte Preis (inkl. Link) bezieht sich auf die Shop-Preise des Anbieters Mad Dragon Yunmin. Dieser vertreibt, soweit ich das gesehen habe, nur originale Ersatzteile. Bedauerlicherweise liegen seine Preise nicht allzu weit weg von Dell's Preisen. Deswegen hat man dann eine ungefähre Preiseinschätzung. So ist das halt im Premiumsegment, vor allem wenn das Modell noch aktuell ist. RTX 2080 Heatsink ($ 190) Bodenplatte, schwarz ($ 76) Backcover, schwarz ($ 150) Backcover, weiß ($ 150) Palmrest, schwarz ($ 150) Palmrest, weiß ($ 150) Zwischenframe ($ 76) Bildschirmrahmen ($ 57) Touchpad Buttons, schwarz ($ 57) Touchpad Buttons, weiß ($ 95) Lüfterabdeckung ($ 100) Powerjack, kurz ($ 38) Powerjack, lang ($ 38) SSD-Kühlkörper ($ 33,25) Display-Kabel, 30-Pin, 60Hz, G-Sync ($ 60) Display-Kabel, 40-Pin, 144Hz, (NO) G-Sync ($ 70) SATA Kabel + 2,5" Rahmen & Schrauben ($ 60 - 150)
    5 Punkte
  40. Hey, mein Rechner ist jetzt da aber ich lag lange mit einer Blöden Corona Infektion Flach. Ich habe den Rechner aber schon aufgebaut und habe ihn hier und da schon getestet. bevor er in betrieb genommen wurde, habe ich die Gehäuselüfter entfernt und sie gegen Noctua NF-A 12X25 ersetzt. Die sind echt sehr leise. Einzig der Lüfter am Radiator ist deutlich hörbar, sogar sehr deutlich. Die Pumpe selbst ist angenehm leise. Zu den ersten Ergebnissen. 3DMark Time Spy 18.954 P. CineBench R23 Multi 25.581 P. im geschlossenem Gehäuse und 1.856 P im Singel Die CPU Temperaturen gehen sehr schnell auf 90-93 grad im CineBench sodass ich erstmal alles Zerlegt habe und neue Wärmeleitpaste (MX4) aufgetragen habe. zumindest jetzt erreiche ich nur noch etwa 85 Grad im selben Benchmark jedoch ohne höhere Punktezahl. Zu erwarten sind wohl normalerweise etwa 27.500P im Multi. Hier Denke ich aber das Dell da einfach die Sicherheit sehr hoch geschrieben hat. Die CPU erreicht hier Maximal 231W selbst im LV2. Normalerweise ist der 12900KF auf 241W ausgelegt. Die Spannungsversorgung der CPU ist mit insgesamt 8 Phasen aber auch nicht gerade sehr gut. Reicht bestimmt aus aber Optimal sieht anders aus. Vergleichbare Boards von Asus und Co haben locker die doppelte Anzahl an Spannungswandlern. Lustig auch, dass der Spannungswandler Controller eigentlich für Notebooks verwendet wird. Ich muss mich mal mit dem Thema Manuelles OC im Bios auseinander Setzen. Die M2 SSD (2TB kommt als PCI-E 4 Version mit 4 Lanes und Schafft laut CrystalDiskMark 6513MB/s Read und 4997MB/s Write. Die Seagate Baracuda 2TB HDD schafft im Selben Test 204MB/s Read und 105MB/s Write. Zu der verbauten RTX 3090 kann man nichts sagen. Sie hat etwa die Leistung der Founders Edition jedoch lässt sich das Power Target nicht mal um einen Prozentpunkt anheben. Hier hat Dell eine Sperre eingebaut. Lustig auch das Thema RAM. Hier sind 2x 32GB DDR5 4800Mhz Cl38 verbaut. Das System begrenzt jedoch auf 4400Mhz und lässt sich auch nicht erhöhen. Die entsprechenden Funktionen im Bios sind ausgegraut oder gar nicht erst vorhanden. Der Ram selbst kommt von SK Hynix PC5 4800B. Weitere Lüfteranschlüsse sind ebenso wenig vorhanden wie zusätzliche Stromanschlüsse. Hier ist neben den beiden Stomanschlüssen für je eine HDD oben und eine SSD unten im Gehäuse, noch 2x 6+2Pin für Grafikkarten vorhanden. Jedoch bietet das Mainboard keine 2te PCI-E Schnittstelle für eine weitere Graka, noch das Gehäuse, hier ist direkt unter der RTX 3090 sofort das Netzteil zu finden. Ich erwarte heute noch eine Lieferung eines 92mm Noctua Lüfters (Noctua NF-A9x14 HS-PWM) den ich hinten am Gehäuse anbringen will und eine Push/Pull Configuration möglich machen soll. Dafür sieht das Gehäuse entsprechende Bohrlöcher hinter dem Radiator vor und über die Klappe mit der die Graka an dem Gehäuse gesichert wird lässt sich das PWM Kabel ins Gehäuse führen. Hier werde ich einfach ein Y-Kabel verwenden und entsprechend mit dem Push-Lüfter eine Einheit Bilden. Dann werden wir mal Sehen ob sich an den Temperaturen noch etwas machen lässt. Ich bin insgesamt etwas enttäuscht vom dem Gesamtkonzept, zumal das Mainboard sich nicht wechseln lässt ohne auf das Gehäuse zu verzichten, und die Kühlung der CPU, die sich als Stinknormale 120mm AIO herausgestellt hat deutlich unterdimensioniert ist für eine 241W CPU. Hier sieht man normalerweise 100W pro 120mm Kühlfläche MAXIMAL vor. Hier hätte also normalerweise eine 360mm AIO verbaut sein müssen um die Temperaturen in den Griff zu bekommen und das wird bestimmt auch einer der Gründe sein, warum die CPU "nur" 230W leistet und nur 8 Phasen für die Stromversorgung bekommt. Sobald die Push/Pull Configuration steht, melde ich mich wieder.
    5 Punkte
  41. Hab mir für's Büro ein kleines Upgrade gegönnt. Folgende Specs sind verbaut: - AMD Ryzen-5 5600G (mit iGPU) - B550i Aorus Pro AX - Scythe Big Shuriken 3 (Low-Profil Kühler) - 16GB G.Skill Trident Z (2x 8GB) @ 3.800 MHz CL16-16-16-32 (Sam B-Die) - 2x m.2 NVMe Samsung 970 EvoPlus 500GB - 400w BeQuiet Pure Power 10 (80+ Gold) (war über) - Beleuchtung: Wingboost 3 aRGB Lüfter & Phantkes Halo für PSU - Zweckentfremdetes offenes DIY-Case Da ich die Hardware gerne sichtbar haben wollte, habe ich diesmal ein bewegliches und offenes DIY-Case gebastelt. Anfangs wollte ich ein Testbench (für ITX) oder sowas ähnliches holen, aber das fand ich einfach viel zu teuer. Das DIY-Case hat mich nur 28 € und wenig Bastel-Zeit gekostet. Das "Gehäuse" kann man ganz nach seinem Belieben einstellen, da die Scharniere alle beweglich sind: Ein wenig RGB durfte auch nicht fehlen, weswegen der Wingboost Lüfter noch oben drauf kam und ins Netzteil habe ich ein Halo-Ring verbaut. Normalerweise gehören die oben drauf, aber das sah bisschen unschön aus. Die Temperaturen sind natürlich Top und der 5600G ist wirklich fix unterwegs. Also die neuen APUs von AMD sind schon nicht übel. Wenn man Lust hat, könnte man eine GPU anschließen und hätte direkt ein fertiges Gaming-Rig.
    5 Punkte
  42. @hysterix und @Nuestra Ihr wurdet von mehreren Usern bereits mehrfach gebeten, eure persönlichen Differenzen außerhalb der öffentlich einsehbaren Themen auszutragen. Dies ist eine offizielle, noch freundliche, Verwarnung. Wenn ihr eure Off-Topic Streitigkeiten nicht augenblicklich beilegt, werdet ihr aus disziplinarischen Gründen mit einer zeitlichen Postingsperre belegt, die sich bei weiterer Missachtung potenzieren wird.
    5 Punkte
  43. Boah Leute hört mit dem rumzicken auf...
    5 Punkte
  44. Servus Gemeinde, viele warten wahrscheinlich schon ungeduldig auf diese Zeilen. Es war mir jedoch wichtig, dass Gerät in aller Ruhe kennenzulernen und auf Herz und Nieren zu testen. Ich denke umso umfangreicher kann ich nun darüber berichten. Für den einen oder anderen wird es zu viel Text sein. Insbesondere der erste Teil ist für Alienware-unerfahrene, bzw. Neueinsteiger gedacht. Alte Hasen dagegen werden direkt zu den Graphen weiter unten springen Wie im Wartezimmer bereits kommuniziert, habe ich folgende Gerätekonfiguration vorliegen: Intel Core i7-10870H nVidia RTX 3070 mobile 32 GB DDR4 1TB NVMe (Dell verbaut eine Western Digital PC SN730) 4K OLED Display inkl. Tobii Unboxing Das Gerät kommt in einem recht schnörkellosen Karton daher und beinhaltet neben dem Gerät - welches bei mir kopfüber verstaut war - lediglich das Netzteil (inkl. Schuko Netzkabel) und ganz wenig Papierbeiwerk in Form eines schlecht zurecht geschnittenen Willkommensschreiben und den gesetzlich notwendigen Garantiebestimmungen. That's it! Besitzer älterer Geräte werden mir beipflichten, wie sehr man sich auch über die Beigaben á la Alienware Mousepad, Aufkleber, Tastaturschutzstoff !und vor allem die Stoffhülle gefreut hat, in der man den Alien vor einer Reise immer verstaut hat. Ich kann mich noch an Zeiten erinnern, da gab es ein reges Handelsgeschäft um diese Hüllen ... Ich denke zur Bauhöhe, respektive flachen Bauweise, brauche ich nicht viele Worte verlieren. Ich war seinerzeit schon begeistert als ich mit dem AW 15 R1 das All Powerful M17X R3 ersetzt habe. Aber die erneute Dickenabnahme ist schon äußerst bemerkenswert! Design und Verarbeitung Über die Jahre habe ich viele Aliens in der Hand gehabt und mit jeder Generation, die ich selbst besessen habe, wurde die Verarbeitungsqualität besser. Das m15 R4 macht dahingehend eine Ausnahme, da es mit diesem Trend bricht und das Niveau eher aufrechterhält. Im direkten Vergleich zu meinem zu ersetzenden Alienware 15 R1 muss man aber auch festhalten, dass das Gehäuse einen deutlich komplexeren Aufbau besitzt. Einerseits muss sich das Display mit seiner eingerückten Aufhängung bedeutend umständlicher in das Gesamtwerk fügen, andererseits konnte sich das 4K Display des R1 hinter der vorgesetzten Makrolonscheibe viel dezenter "verstecken". Im Großen und Ganzen bin ich aber mit der Verarbeitung zufrieden. Auch die weiße Gehäusevariante "Lunar White" wirkt in Natura besser als auf den zahlreichen Abbildungen im Netz. Ich hoffe jedoch, dass der explizit von Dell beworbene Klarlack tatsächlich so beständig ist. First Power On Die erste Schrecksekunde ereilte mich, als ich zum ersten Male vergeblich versuchte dem Alien Leben einzuhauchen. Das Werk hat das Gerät doch tatsächlich mit einem leeren Akku auf Reisen geschickt?! Ich war immer der Auffassung, dass Akkus auch bei Neugeräten zwischen 20% und 30% vorgeladen wären. Jedenfalls gelang mir der First Power On erst beim zweiten Anlauf und mit angeschlossenem Netzteil, welches btw. in vorliegender Konfiguration in der 240W Ausführung ausgeliefert wird. Ich konnte das Gerät das erste Mal in den Abendstunden booten und ich wurde regelrecht geblendet. Der blaue Hintergrund der Windows Ersteinrichtung in leuchtintensiven 400 cd/m² hat mich fast vom Sofa geworfen. Ich will mir gar nicht ausmalen wie krass dann erst die 500 cd/m² des UHD Displays des m17 R4 sein müssen. Braucht man hier dann schon eine Sonnenbrille? Die Farbdarstellung ist definitiv über alle Zweifel erhaben. Hier stellt sich sofort ein Aha-Effekt ein. Bereits der Alienware POST-Screen auf dem satt schwarzen Hintergrund. Boah, was ein Kontrast und wie die weißen Buchstaben messerscharf voneinander abgetrennt sind. Selbst das Windows 10, was man sich vermeintlich schon sattgesehen haben müsste, wirkt viel lebendiger. Das Oled Display wird automatisch mit Tobii Eye-Tracking ausgestattet. Über den Mehrwert lässt sich definitiv streiten beziehungsweise stellen sich eine ganze Reiche von Fragen. Warum gibt es das nur in dieser Konfig? Warum lässt sich das nicht abwählen? Letztendlich ist es wieder eine der Sachen, die dem Kunden aufgezwungen wird und die sich damit in die Liste fragwürdiger Gegebenheiten einreiht, wie z.B. Gehäusefarbe in Abhängigkeit von der Konfiguration, All-Key RGB Tastatur nur als QWERTY etc. p.p. An ein neckisches Feature habe ich mich dennoch schon gewöhnt. Nämlich die automatische Displayabdunklung, wenn man sich von dem Gerät entfernt (bzw. wenn Tobii die Augen aus dem Fokus verliert) und umgekehrt, wenn man wieder an den Platz zurück kommt. Das klappt erstaunlich gut und ich habe bisher noch kein Fehlverhalten registriert. Ich denke ich werde auch mal ein Game ausprobieren, welches mit Tobii Features wirbt. Bisher hatte ich aber noch Keines im Testparcours. Vorinstallierte Software und Alienware Command Center Glücklicherweise sind auch die heutigen Alienware Neuauslieferungen frei von Bloatware und die Betriebssysteminstallation recht sauber gehalten, weshalb man sich nicht zwingend verpflichtet fühlen muss, das OS direkt neu aufzusetzen. Dennoch muss man sagen, dass die Anzahl an Alienware gebrandeter Software - bzw. Apps - deutlich zugenommen hat, worunter auch sinnloser Murks á la "Alienware Customer Connect" zählen dürfte. Und ob "Alienware Mobile Connect" eine große Fangemeinde findet, wage ich auch zu bezweifeln. Das Hauptaugenmerk liegt denke ich zweifelsohne auf dem mittlerweile ziemlich wuchtig geratenen "Alienware Command Center". Spätestens seit Einführung der AlienFX Christbaumbeleuchtung, ist diese Software die Kommandozentrale eines jedes Aliens. Umso eher sollte man sich doch darauf stützen können, dass diese ordentlich funktioniert. Aber leider ist dem weit gefehlt! Wenn man mal den Umstand außer Acht lässt, dass man in der Vergangenheit bereits mehrfach die Chance verpasst hat eine einheitliche, konsistente Software über viele Gerätegenerationen hinweg aufzubauen, so ärgert es umso mehr, wenn augenscheinlich gut gedachte Funktionen nicht das tun, was sie sollen ... oder nur sehr widerwillig. Bspw. ist die Möglichkeit aus verschiedenen Lüfterprofilen zu wählen (und auch eigene zu definieren) erst seit wenigen Jahren Bestandteil des Command Centers. Ich besitze jetzt zum ersten Mal ein damit kompatibles Gerät und habe erst wenige eigene Erfahrungen sammeln können (fern der vielen Berichte hier im Forum). Aber unter diesen Wenigen sind bereits ziemlich schwerwiegende Missstände zu vermelden. Anfangs habe ich im Office Betrieb das Profil "Still" ausgewählt gehabt und war damit sehr zufrieden, da die Lüfter, wenn sie denn anliefen, nur bis 30% aufdrehten, was nur wahrnehmbar ist, wenn es keine weitere Geräuschquelle in unmittelbarer Nähe gibt. Plötzlich und ohne ersichtlichen Grund drehten sie jedoch auf, als würde im Hintergrund eine sehr leistungsbeanspruchende Anwendung ausgeführt werden, was aber nicht der Fall war (Beweis war im Taskmanager ersichtlich). Gegen kurzzeitig ansteigende Lüfter habe ich nichts. Aber wenn sie auf der hohen RPM-Stufe verharren, ist es nervtötend. Interessanterweise konnte man die Lüfter nur bändigen, wenn man auf ein anderes Lüfterprofil - z.B. "Ausgeglichen" - wechselte. Insgesamt ist mir das so 2 oder gar 3 mal untergekommen. Ebenfalls mehrfach aufgefallen ist mir, dass die automatische Profilauswahl nicht ordentlich arbeitet. Wenn im Command Center Spiele verknüpft sind und das Profil "Leistung" zugewiesen ist, dann wird nach Beendigung nicht wieder auf das zuvor eingestellte Lüfterprofil gewechselt und teilweise verbleiben die Lüfter in den hohen RPM Bereichen, wie unter 1. Dieser Punkt ärgert mich am meisten und wahrscheinlich werde ich dazu noch einen eigenen Thread (Hilfegesuch) starten. Mir ist jetzt schon 2x BF5 abgeschmiert ... ich vermute aufgrund eines noch instabilen Under Voltings (dazu später mehr). Beim ersten Mal habe ich noch keinen Zusammenhang gesehen, aber jetzt beim zweiten Mal ist ein Trend erkennbar. Nachdem das OS aus dem Crash neu gebootet hat, kann ich im Command Center die Module "Übertakten" und "Thermo" nicht mehr anwählen. Ich sehe lediglich die Ladekreise. Nach einer kurzen Weile meldet sich das CC und behauptet, dass für das OC-Modul noch Komponenten heruntergeladen werden müssen. Dass diese aber bereits installiert sind, zeigt sich, dass man diese nach dem Herunterladen nur "Deinstallieren" anstatt "Installieren" kann. Eine Neuinstallation des gesamten Command Centers inkl. penibler Säuberung sämtlicher Verzeichnisse ist nicht zielführend! Keine Ahnung ob es daran lag, aber nach der Reparatur der Microsoft C++ Redistributable, war das CC wieder funktionstüchtig ... bis zum 2. Crash. Alienware Graphics Amplifier Ein nicht unerheblicher Grund weshalb das m15 R4 den Weg überhaupt zu mir gefunden hat, ist der weiterhin verbaute AGA Port. Da ich den AGA und meine darin befindliche RTX 2070 weiter nutzen wollte, war das ein wichtiges Kriterium und vor dem Hintergrund, dass der AGA bereits EOL ist, gar nicht so gewiss. Ich gehe mal davon aus, dass er nur deshalb noch existiert, weil das R4 keine grundlegend neue Architektur besitzt und es noch viele AGAs da draußen gibt. Bei einem Generationenwechsel wird er aber wahrscheinlich wegrationalisiert werden. Die Inbetriebnahme gestaltet sich extrem unkompliziert. Anstecken, booten, fertig. Die notwendigen Treiber stecken bereits im Command Center und es wird keine weitere Softwarekomponente benötigt. Neben diesem Unterschied zu meinem vorherigen AW 15 R1 werden nun auch alle !3 GPUs betrieben. D.h. man kann, sofern es die Software ermöglicht, auswählen, welche GPU zur Ausführung kommen soll. In den Einstellungen von Red Dead Redemption 2 kann ich z.B. festlegen ob die Intel GPU, die mobile RTX 3070 oder die externe RTX 2070 zum Zuge kommen "darf". Wenn man keine Auswahl treffen kann, ist die externe GPU im AGA immer das winning System. Den End-of-Life Status des AGAs merkt man z.B. daran, dass man im AlienFX des CC diesen gar nicht mehr vorfindet und er leider keinen beleuchteten Alienhead mehr hat. Alles andere, wie die USB-Hub Funktion sind aber weiterhin funktionell. Performance Für die meisten von euch folgt nun höchstwahrscheinlich der spannendste Part des Berichts. Nämlich objektive Fakten zur Leistungsbewertung der Konfig. Ich werde mich in diesem Teil mit Worten zurückhalten und die Werte für sich sprechen lassen. Sicherlich werden wir im Nachgang darüber diskutieren und ich gehe davon aus, dass die gezeigten Benchmarks und Logs nicht die Letzten bleiben werden. Für maximale Transparenz befinden sich in der Anlage die originalen Logfiles mit allen getrackten Werten aus den BF5 Sessions. Der Laptop steht auf einem Notebookständer und wird von allen Seiten gut belüftet. WLP ist out of the box. TimeSpy - RTX 3070 mobile (Steam Demo Version) Out of the Box (Dell Treiber 27.21.14.5765, A00, kein UV) Link: https://www.3dmark.com/3dm/58775068? Dell GPU Treiber 27.21.14.5773, A01 CPU:-100mv UV Link: https://www.3dmark.com/3dm/58776170? TimeSpy - RTX 2070 AGA (Steam Demo Version) nVidia Treiber 461.72 CPU:-130mv UV Link: https://www.3dmark.com/3dm/58896678? Battlefield 5 Ich habe je eine große Runde (ca. 1h am Stück) "Operation Underground" auf einem vollen 64er Server gespielt. Einmal mit der mobilen RTX 3070 und einmal mit der RTX 2070 im AGA. Die Game-Settings sind so eingestellt, dass sie für beide GPUs 60 FPS (vsync on) erreicht werden. D.h. Auflösung 2048x1152, Preset Ultra und RTX on (Mittel), DLSS off (für die Auflösung nicht verfügbar). Ich Dussel habe leider vergessen die HWinfo Übersicht abzufotografieren. Deshalb folgen "erstmal nur" einige Diagramme ausgewählter Eigenschaften. Mit den Logs anbei kann man aber wie gesagt alles einsehen. RTX 3070 mobile, CPU -130mv Ab Minute ~33 ist eine deutliche Veränderung erkennbar. Ganz sicher bin ich mir nicht, wie das zu interpretieren ist, aber folgendes kann ich sagen. Mir ist aufgefallen, dass ab ca. Mitte der Runde der Alienhead (Powerbutton) angefangen hat zu pulsieren. Also der Indikator für den Ladevorgang des Akkus. Also hat sich der Alien auch am Akku bedient und nach Rundenende war der Akku nur noch zu 95% gefüllt. Weiterhin hat sich das Spielgeschehen verändert. Die erste Hälfte der Runde hat ausschließlich auf dem Bahnhofsvorplatz, also draußen, abgespielt und später hat es sich in die Tunnel verlagert. Zu keinem Zeitpunkt habe ich einen Leistungsabfall im Spiel registriert. RTX 2070 AGA, CPU -130mv Die Kurven des AGA Szenarios sind einfacher zu deuten. Der "Einbruch" bei Minute 7 ist nichts anderes als ein Rundenneubeginn. Zwischenfazit Das m15 R4 hat mich unterm Strich definitiv positiv überrascht. Man merkt die 6 Jahre zu meinem vorherigen AW 15 R1 besonders CPU-seitig. In Spielen wie BF5 konnte die RTX 2070 im AGA ihr Potential einfach nicht ausnutzen. Das wird ganz deutlich und allein vor diesem Hintergrund ist der m15 R4 für mich schon ein würdiger Nachfolger. In meinen vorangestellten Kapiteln habe ich mich gar nicht großartig über die Lüftercharakteristik ausgelassen (wenn wir von den Command Center Eigenarten mal absehen). Das liegt zum einen daran, dass mich das Thema nicht sonderlich triggert und zum anderen finde ich die erzeugten Geräusche nicht unangenehm. Keine Ahnung ob das m15 R4 von dem Pfeifen der m17 R4 nicht betroffen ist, oder ob ich einfach ein anderes Empfinden habe, aber für mich rauscht es einfach nur dahin ... ohne Pfeifen. Und weil ich weiß das hier viele darauf Wert legen, möchte ich noch bemerken, dass während ich diesen nicht enden wollenden Beitrag verfasse, die Lüfter nur sporadisch auf kleiner Stufe anliefen. Leider kann ich aber aufgrund des o.g. Sachverhalts gegenwärtig nicht sagen in welchem Lüfterprofil ich momentan unterwegs bin. Es ist schon bemerkenswert wieviel Leistung man heute aus einem so kleinen Gerät rauspressen kann. Genauso krass finde ich, wie besser die mobile RTX 3070 gegenüber der Desktop RTX 2070 im AGA performt - unabhängig davon, dass der AGA gewisse Leistungsverluste mit sich bringt. Nach aktuellem Stand wird das m15 R4 bei mir bleiben dürfen. Ich gehe davon aus, dass die Probleme mit dem Command Center noch näher eingegrenzt werden können und dann hoffentlich in einer Problembeseitigen münden. Letztendlich wäre es aber auch verdammt schwierig sich von dem geilen Display wieder verabschieden zu müssen! In diesem Sinne, danke fürs Durchlesen bf5_3070.CSV bf5_2070.CSV
    5 Punkte
  45. Wie ich es bereits an der ein oder andere Stelle angedeutet habe, habe ich mir ein neues System gebaut. Die Möglichkeit hat sich ergeben, da mein Arbeitskollege auf der Suche nach einem neuen PC war und mir entsprechend noch ein gutes Angebot für mein altes System gemacht hat. Eigentlich war geplant, dass ich mir alle Teile wieder direkt neu zusammenkaufe. Zufälligerweise entdeckte ich bei der GPU-Suche aber ein Komplettsystem, was zu 80% die Teile verbaut hatte, die ich neu kaufen wollte. Nach etlichen Telefonaten und Kalkulationen entschied ich mich dann für das Komplettsystem (nur 3 Wochen alt) und holte es ab. Anschließend verbrachte ich zwei Abende in meiner Werkstatt und machte das neue System nach meinen Vorstellungen fertig, zumindest so weit ich das konnte. Verbaut wurde Folgendes: Case: Phanteks Eclipse P500A D-RGB Board: Gigabyte X570 Aorus Master CPU: AMD Ryzen 7 5800X GPU: XFX RX 6900XT Mer 319 BLACK RAM: 4x 8GB G.Skill Neo (Sam B-Die) SSD: 2x Samsung 980 Pro (PCIe 4.0) Cooler: NZXT Kraken Z63 AIO PSU: Corsair AX850 (Titanium) Zubehör: schwarz gesleevte Kabel etc. Monitor: MSI Optix MAG27QRF-QD (165Hz IPS) (bestellt) Hier mal ein Vergleich der neuen GPU mit der alten: Die MSI war ja schon mit einer der größten damals, aber die XFX ist noch mal einen Tick länger und schwerer. Die Verarbeitung der Karte ist absolut Top. Rahmen, Frontcover, Backplate etc. ist alles aus Metall. Sieht und fühlt sich alles sehr hochwertig an. Hier mal einige Fotos vom Zusammenbau: Kabelmanagement darf natürlich auch nicht fehlen. So schaut das System am Tag aus: (wenn der PC aus ist) und so bei Nacht, wenn er an ist: Natürlich habe ich schon das ein oder andere umgebastelt, aber dazu äußere ich mich im Detail dann in einem anderen Beitrag. Ich bin aber noch lange nicht fertig. Einiges ist bereits bestellt und unterwegs. Dann zu den Benchmarks.... Ehrlich gesagt, habe ich noch nicht wirklich viel getestet und ausprobiert. Diese ganze AMD Sache ist für mich noch ein wenig neu und ich muss entsprechend viel Zeit investieren, um das optimale Setting zu finden. Zumindest habe ich jetzt mal einen Firestrike und Timespy Run gemacht. Anfangs natürlich Stock und jetzt mit bisschen UV und OC, wobei der Unterschied jetzt nicht so wirklich groß ausfällt. CPU läuft undervoltet mit dem Curve-Optimizier bei einem Offset von -19 und +50 MHz. GPU lief bisschen im OC. +100 Takt + 50 Mem. Gut möglich, dass mein Setting noch nicht wirklich gut ist. Daher nur vorläufige Ergebnisse: P.S.: GPU genehmigt sich maximal 330w mit PL +15%. Sonst sind's mein ich 280w. Takt läuft irgendwo bei 2.600 Mhz, hab die Karte aber noch nicht ausgefahren. Time Spy Link: http://www.3dmark.com/spy/19225522 Firestrike Link: http://www.3dmark.com/fs/25206276
    5 Punkte
  46. Puuh, weiß nicht. Vielleicht Skalierung oder so. Wie sieht's mit'm anderen Browser aus? Ich baue ja häufiger PCs zusammen und kenne daher das ganze Namens-Chaos von USB. Orientiere dich nicht so stark dran, was die Hersteller für Bezeichnungen ihrer I/O Panels geben, die sind nämlich auch nicht immer richtig. Ist aber eigentlich egal, weil sind eh alles die gleichen Kabel, die ins Mainboard münden. Wichtiger ist welche Anschlüsse dein Mainboard bietet. Ich vermute mal, dass du USB 3.1 Typ C Gen. 2 meinst. (...was für'n Name). Ist halt der schnellste Anschluss für USB am Front-Panel und bei heutigen Gehäuse Standard. Ja gut, zum einen kann der Fuma2 nicht wirklich laut^^ und zum anderen hast du ein relativ geschlossenes Case. Das fängt schon ein wenig Schall ab, wobei deine eingesetzten Lüfter und das alles bis zu einem gewissen Grad auch leise bleibt. Sind halt keine Blower-Fans oder so ein Blödsinn drin. Kleiner Tipp: Falls du mal ein Repaste machst, dreh den Fuma besser um. Er ist mit seinen gegenläufigen Lüftern und den Heatsink-Lamellen für die andere Strömungsrichtung konzipiert. Gut möglich, dass er dann effektiver kühlt. Das stimmt. Viel zu teuer von Corsair die Dinger. Wenn du Premium möchtest, bestellst du eh bei Cable-Mod passend in deinen Farben, Längen und für dein Netzteil oder du nimmst die Alternativen von Amazon und Co. (Alternative1, Alternative2). Hab ich auch schon öfter gemacht und sind von der Qualität voll in Ordnung. Musst halt gucken welches Sleeve-Material (PET oder Paracord) du möchtest. Da kann ich dir 4 Sachen hierfür wärmsten empfehlen. Hat sich bei mir bislang wunderbar bewährt. - Kabelschlauch groß - Kabelschlauch klein - Kabelbox - Klettbänder So sieht das ganze dann bei mir aus: Dann fang ich mal mit meiner Bude an, auch wenn die Fotos nicht mehr ganz so aktuell sind. Komponentenliste: Case: BeQuiet Dark Base Pro 900 Rev.2 Mainboard: Gigabyte Z390 Aorus Master CPU: Intel Core i9-9900KS CPU-Kühler: BeQuiet Dark Rock Pro 4 (inkl. 2 NF-A12)* GPU: MSI RTX 2080 Super Gaming X Trio GPU Mount: CableMod Vertical GPU Bracket RAM: 4x 8GB G.Skill Ripjaws V (Samsung B-Die) PCIe m.2 SSD: 3x Samsung 970 Evo+ 500GB SATA SSD: 2x Samsung 860 Evo 500GB PSU: Seasonic Focus Gold 80+ 750w Air-Intake: 3x BeQuiet Silent Wings3 140mm PWM* Air-Exhaust: 1x BeQuiet Silent Wings3 140mm Highspeed PWM Extra: Gesleevte Kabelverlängerungen* Extra: Cooler Master 24-Pin ATX 90° Grad Adapter Monitor1: Gigabyte Aorus AD27QD (2560 x 1440p) 144Hz Monitor2: Dell P2720D (2560 x 1440p) Monitorständer: Dell MDS19 Tastatur: Alienware AW768 + Palmrest AW168 Maus: Logitech M720 Sound: Bose Companion 50 Headset: Logitech G935 (Wireless) Stuhl: Noblechairs EPIC & ICON * Teile wurden mittlerweile geändert Wahl der Komponenten: Mit dem Setup bin ich vollstens zufrieden, auch wenn ich mittlerweile einiges geändert habe und auch noch einiges in Planung ist, dazu aber gleich mehr. Das Aorus Master bot zu dem damaligen Zeitpunkt in der Preisklasse (280 - 320€) die beste Option für mich. 3x m.2 PCIe SSD, stärkstes VRM-Layout, beste VRM Kühlung, Dual Bios, Cmos-Button, 8x Fan/ Pumpe Anschlüsse, verstärkte Stromschlüsse und und und. Da Z390 Chipsatz, kam dementsprechend nur Intel in Frage. Logischerweise konnte ich in ein High-End Board keine Mittelklasse-CPU reinstecken. Also kam vorerst ein 9900K rein. Da man mit so einem Mainboard gefühlt unendlich Möglichkeiten hat, die Spannung seiner CPU einzustellen, kam schnell der Wunsch auf, eine selektierte CPU haben zu möchten damit ich vom Strom her deutlich weiter runter gehen kann. Also kaufte ich mir den KS, der natürlich auch für OC besser eignet. Strom- und damit temperaturtechnisch ging hier dann noch mal deutlich was. Ich betreibe meine CPU mit dem Minimum an Strom, den ich zum Zocken brauche. Prime95 überlebt er mit der Einstellung nicht, aber bei Prime ist die Last ist so oder so unrealistisch hoch (Gaming). Ich weiß, viele testen mit Prime95 und wollen ein absolut stabiles System und betreiben ihr System dauerhaft mit der Spannung, die den Worst-Case überlegt. Ich habe hierfür einfach ein zweites Setting, was ich während des laufenden Betrieb einstellen kann. Wenn's mal ein Bluescreen gibt, drehe ich 0,05mV auf und spiel weiter. Bislang hält aber der Sweetspot noch ganz gut durch. Ich glaub, dieses Jahr noch kein Mal abgestürzt. Für's Video rendern reicht's jedoch nicht ganz. Hintergrund der Geschichte ist: weniger Strom --> weniger Abwärme --> leiseres System. So sehen die Temperaturen nach 2h Spielzeit (AC Odyssey) mit dem Setting und dem Dark Rock aus: Als GPU hatte ich zunächst die Gigabyte RTX 2080 Aorus, da ich bereits mit dem Mainboard und dem Monitor gute Erfahrungen mit Gigabyte gemacht hatte. Jedoch habe ich diese Karte relativ schnell zurückgeschickt. Aufgrund der, im Vergleich zu den anderen, kleinen Größe war die Passiv-Kühlleistung nicht so dolle und die Kühlleistung allgemein nicht so. Also gab ich sie zurück und bestellte mir im Austausch die MSI Gaming X Trio, die so ziemlich die größte 2080 ist. Mit der bin ich "super" zufrieden, weil sie auch im Gaming-Betrieb sehr leise ist. Außerdem gefällt sie mir optisch sehr gut. Einziger Nachteil, bei so einer großen Karte kann die vertikale Ausrichtung mit einem großen Luftkühler schnell kollidieren. Also mit'm Noctua NH-D15 passt es so nicht. Updates: Seit letzter Woche ist nach langem hin und her nun auch eine AIO in mein Case eingezogen. Zum Einsatz kommt die NZXT Kraken Z63. Ich betreibe den Radiator in einer Pull-Push Konfiguration mit zwei Actic P14 Lüfter als Push und zwei Silent Wings 3 als Pull. Den Stecker der AIO habe ich etwas umgemodelt, weil mir dort zu viel Kabel dran waren. Außerdem waren sie nicht gesleevt. Zusätzlich habe ich mir auch Stecker für die GPU gebastelt damit man keine Kabel mehr sieht. Die gesleevten Kabel habe auch ausgetauscht. Hier mal einige Bilder: Die Kühlleistung ist mit der AIO ziemlich beachtlich und dabei flüsterleise. Also die neue Asetek Pumpe ist wirklich ein Traum, hätte ich nicht gedacht. Als Temperaturvergleich habe ich momentan nur Werte von Ghost Recon Breakpoint. Da ich bei dem Spiel im GPU-Limit hocke, pendelt sich die CPU in meinem Setup bei rund 60w im Durchschnitt ein. Mit meinem gemoddeten Dark Rock Pro 4 hatte ich hier im Durchschnitt 50-52°C. Jetzt mit der Z63 sind es 40-42°C. Temperaturen 1h Ghost Recon Breakpoint Luftkühler: Temperaturen 1h Ghost Recon Breakpoint AIO: Die NZXT Z63 AIO kann ich daher absolut empfehlen und mit 6 Jahren Garantie braucht man sich auch keine Gedanken zu machen. Einziger Wermutstropfen, sie ist mit dem Display fast 100€ teurer als das Vorgängermodell, die X63. Jedoch muss ich zugeben, wenn man einmal das Display live gesehen hat und die ganzen Animationen und was damit alles geht, kommt schnell der "will haben" Wunsch auf. Ich bereue den Kauf nicht, eher im Gegenteil. Geplante Updates: Da mein System auf Augenhöhe steht, ist die Optik bei mir ein wichtiger Punkt und wenn irgendwas nicht passt, juckt es mir direkt in den Fingern. Daher werden demnächst die beiden 8-Pin CPU Stecker noch gegen schwarz geschleevtes Kabel getauscht und in die Decke kommt eine Carbonplatte rein. Puuh, ziemlich langer Beitrag sorry, aber so habe ich alles in einem Beitrag.
    5 Punkte
  47. Wie immer, falls ihr es selber macht, ist das ganze alles auf eigenes Risiko. Ich übernehme keine Haftung oder Verantwortung. Vielmehr dient der Thread als Hilfestellung und Wissenserweiterung. Detaillierte Informationen zu den Sicherheitsbestimmungen findet ihr im Service-Manual Area 51m oder auf der Dell Homepage. Da ich nun schon öfter das Vergnügen hatte den Area51m zu repasten und wir hier im Forum noch kein offiziellen Repaste-Guide haben, wollte ich die Chance ergreifen und einige wichtige Informationen zum Repaste beim Area 51m zusammentragen. Dieser Repaste-Guide ist kein offizieller Guide, der vorschreibt wie man was zu machen hat, sondern zeigt eine Möglichkeit auf wie man so einen Repaste durchführen kann und zählt Empfehlungen auf, die auf meinen Repaste-Erfahrungen beruhen. Wie man den Repaste am Ende selbst an seinem eigenem Gerät durchführt, bleibt jedem selbst überlassen. Noch eine Anmerkung zur Vorgehensweise/ Darstellung im Repaste-Teil. An einigen Stellen werde ich Bilder teils doppelt posten. Ich möchte damit einfach mehrere Eindrücke und Sichtweisen von dem Repaste vermitteln und was einem im Detail erwartet. Es folgen auch einige Detailbilder wie beispielsweise von den Lüftern oder der GPU. So das man sich in dem Guide auch einige Bauteile in Ruhe angucken kann. 1. Das richtige Werkzeug Ohne gescheites Werkzeug sollte man so einen Repaste erst gar nicht anfangen. Meine Empfehlung für das passende Werkzeug ist wie immer das: Schraubendreher-Set von HAMA und iFixit Tool-Kit Das Schraubendreher-Set von Hama ist dahingehend zu empfehlen, weil es lange Bits hat, welche das iFixit-Tool-Kit leider nicht besitzt. Diese langen Bits erleichtern vor allem bei tiefen Löchern die Demontage, aber auch so hat man mit langen Bits mehr im Blick, da man nicht so viel vom PCB verdeckt. Ich empfehle auch, egal welcher Schraubendreher, immer einen Magneten an den Schraubendreher zu stecken. So bleiben die Schrauben immer schön am Schraubendreher. Bei mir schaut das wie folgt aus: 2. Die richtige Vorbereitung Mit ein paar kleinen Tricks kann man sich das Leben deutlich einfacher machen und Fehler vorbeugen. So wäre beispielsweise der Punkt der Organisation/ Sortierung zu erwähnen. Gerade wenn man noch nicht so viel Erfahrung hat, können einem die vielen unterschiedlichen Schrauben schnell durcheinander bringen oder man vergisst schnell mal eine. Eine sehr einfache Methode ist, die Schrauben vorher passend abzulegen und gegebenenfalls zu beschriften. Bei Notebooks, die ich nicht regelmäßig repaste sieht das wie folgt aus: Die Schale ist der Deckel aus dem iFixit-Toolkit, den ich beschriftet habe. Zusammen mit der Liste ist das praktisch idiotensicher. Ein weiterer Fehler, der durchaus in der Vorbereitung passieren kann, ist die richtige bzw. ausreichende Menge an Wärmeleitpaste da zu haben. CPU IHS und GPU DIE sind nicht gerade klein (beim Area 51m) und wenn man z. B. Kryonaut mit 1 Gramm kauft, kann das möglicherweise zu wenig sein und es gibt nicht schlimmeres als auf halben Wege des Repastes festzustellen, dass einem die WLP nicht reicht. Hier mal ein Vergleichsbild von zwei neu gekauften WLPs: (Kryonaut 1g vs. Noctua 3,5g) Insbesondere wenn man WLP-Tuben hat, wo man den Inhalt nicht sehen kann, ist das eine Überlegung in der Vorbereitung wert. Weitere selbstverständliche Punkte wie eine weiche Unterlage für das Notebook oder eine gute Ausleuchtung erwähne ich jetzt nicht extra. 3. Demontage-Hinweise Bei der Demontage orientiere ich mich an dem Service-Manual (Link ganz oben in der Beschreibung) und meiner Erfahrung. Ich empfehle immer nur die Schrauben, die Stecker, die Bauteile zu lösen, die essentiell nötig sind und den Repaste durchzuführen, auch wenn das Service-Manual an der ein oder anderen Stelle eine andere Vorgehensweise empfiehlt. Wenn man meint seine HDD, RAM oder CMOS-Batterie ausbauen zu müssen, muss man ggfs. damit rechnen, dass das Notebook nach dem Repaste evtl. zicken macht. Zu erwähnen wäre da z.B. CMOS-Batterie ab = BIOS Reset, Arbeitsspeicher raus = Meldung im ePSA beim ersten booten. Ist kein zwingendes Muss, aber auch nicht auszuschließen. Stecker lösen ist auch ein wichtiges Thema. Dell empfiehlt hier an der Lasche bzw. dem Kabel selber zu ziehen, um das Kabel aus dem Stecker herauszulösen (außer Flachbandkabel). Ich empfehle es keineswegs. Besonders dann nicht, wenn die Kabel viele kleine Litzen haben. Einmal falsch gezogen und schon hat man so ein Kabel schnell beschädigt und selber reparieren ist nahe zu unmöglich, da es einfach viel zu klein ist. Daher gleich das Risiko vermeiden und immer versuchen direkt am Stecker zu ziehen. Meistens haben die an den äußeren Enden kleine Verbreiterungen an dem den Stecker hochziehen kann. Ein weiterer leicht unterschätzter Punkt ist das Arbeiten mit Pinzette und anderen metallischen Werkzeugen. Nach Möglichkeit immer, da wo man kann, Plastik-Tools oder Finger(nägel) benutzen. Metall leitet sehr gut und ist vergleichsweise hart. Wenn man platinen-nah arbeitet und abrutscht ist es zumindest nicht ausgeschlossen, dass man sein Notebook dabei beschädigt. Entweder, weil man sich mit dem harten Metallwerkzeug Kondis oder andere SMD-Bauteile runterreißt oder durch das Metall einen Kurzschluss auf dem PCB verursacht. Selbst nach einem Powerdrain kann man nie 100%ig sicher sein, dass alle Kondensatoren vollständig entladen sind. Ich würde das Risiko nicht als sonderlich hoch einstufen, trotzdem verfahre ich hier nach der gleichen Empfehlung wie bei dem Lösen der nur notwendigen Schrauben. Einfach jedes Risiko, jedes Potential für Fehler, von vornherein, so minimal wie möglich halten. Dann hat man schon mal eine solide Basis für ein erfolgreichen Repaste. Als letzten Punkt wollte ich noch eine Sache erwähnen, die eigentlich völlig logisch erscheint, aber doch schnell mal falsch gemacht werden kann. Normalerweise (zu 95%) lässt sich jedes Bautteil ohne viel Widerstand herausnehmen. Wenn es das nicht tut, ist die Wahrscheinlichkeit hoch, dass vielleicht doch noch ein Kabel oder eine Schraube vergessen wurde. Deshalb immer ganz sachte versuchen das Bauteil zu entfernen. Sobald irgendwas klemmt oder schwer geht, lieber noch mal abchecken, ob auch wirklich alles ab ist. Lieber einmal zu viel nachschauen als zu wenig. 4. Demontage Los geht's wie immer der Bodenplatte. Laptop umdrehen, Schrauben lösen und Bodenplatte entnehmen. Die Schrauben besitzen einen Sicherungsring und verbleiben in der Bodenplatte. Dell empfiehlt hier jedesmal so ein fetten Platikkeil zu nehmen. Deutlich schonender sind die blauben Plastik-Clips aus dem iFixit-Toolkit. Gerade die Haltenase in dem schwarz-glänzenden Rahmen halten kaum Belastung aus. Mit dem flachen Plastik-Clip macht man sich in der Regel nie die Klammern kaputt und auch die Demontage ist damit einfacher. Im nächsten Schritt wird immer als erster der Stromstecker der Batterie [1] entfernt. Im selben Zuge kann man ihn auch gleich komplett ausbauen [2] + [3]. Zusätzlich kann hier schon den HDD Stecker lösen oder auch später mit den anderen Kabeln. Anschließend folgen beide m.2 SSDs [1] + [2] + [3] Nächster Schritt ist der Ausbau der Rear I/O Abdeckung [4]. Dazu die gezeigten Schrauben inkl. der beiden Schrauben [3] auf der Rückseite lösen + das Tron-Light Kabel [1]. Diese Abdeckung kann etwas schwieriger beim ersten Mal abgehen. Am einfachsten geht sie ab, wenn man die Abdeckung durch den Spalt (blauer Pfeil) mit dem langen Plastik-Tool leicht heraus hebelt. Der Spalt ist genau dafür vorgesehen. Nun folgt die Wi-Fi Karte [1] und und das Tobii-Eyetracking Kabel [3]. Es ist nicht notwendig die Antennenkabeln von der Wi-Fi Karte zu trennen. Spätestens jetzt sollte man auch den HDD-Stecker [1] lösen, so wie alle anderen gezeigten Kabel und Stecker. Das Displaykabel [8] + [10] muss nicht zwingend komplett gelöst werden, dazu aber später mehr. Als nächstes kommt der Zwischenrahmen, der mit 14 + 1 Schrauben fixiert. +1 weil eine Schraube etwas länger ist und an einer ganz bestimmten Stelle sitzt. Falls man sich später nicht sicher ist, wo welche Schraube wieder rein gehört, so hat man als Hilfe auf dem Rahmen verschiedene Markierungen, die anzeigen welche Schraube an der Stelle die richtige ist. Es steht auch drauf wie viele Schrauben von welchen Typ rein müssen. In dem Fall Schraube M2.5, 14x L8 + 1x L12 (L = Länge) Als nächstes ist die Heatsink inkl. der Lüfter dran. Hierfür zuerst die Lüfterkabel [1] und -schrauben [2] entfernen. Anschließend folgen die Schrauben der Heatsink [3]. Ich empfehle dabei die Schrauben immer über Kreuz nach und nach zu lösen, so dass sich die Heatsink gleichmäßig anhebt. Selbiges gilt auch für den Zusammenbau später. Deswegen ist die Heatsink auch durchnumeriert. Es kommt dabei nicht exakt auf die vorgegebenen Zahlen an, sondern mehr auf die Methode, so dass man die Heatsink gleichmäßig aus- oder einbaut. Noch mal zum Displaykabel. Wie man hier unschwer erkennen kann, muss man es nicht zwingend entfernen um das Frame auszubauen. Wen das Kabel aber bei der Demontage stört, kann es natürlich ausbauen. Es ist nur ein optionaler Schritt, der weniger Arbeit benötigt um an's Ziel zu kommen. Gleiches auch für die WLAN-Karte und den Antennensteckern. Hat man alles richtig gemacht, sieht das ganze dann wie folgt aus: CPU und GPU macht man sauber und trägt die neue Wärmeleitpaste auf. Welche Technik (X, Dot, Blob etc.) man einsetzt um die Wärmeleitpaste aufzutragen, bleibt jedem selbst überlassen. Die Meinungen gehen in dem Thema zum Teil sehr weit auseinander. Grundsätzlich performen fast alle Techniken identisch, da der Anpressdruck das normalerweise regelt. Nur zu wenig WLP kann sich negativ auf die Kühlleistung äußern. Ich mache das meistens so, dass ich den gesamten IHS/ DIE mit einer dünnen Schicht bestreiche und in der Mitte noch einen winzigen Klecks dazu gebe. Dann kann ich relativ sicher sein, dass der gesamte Chip vollständigen Kontakt zur Heatsink hat. 5. Zusätzliches Thema Liquid Metal (LM). Auch ein Thema wo die Meinungen etwas auseinander gehen. Zur Kühlleistung will und kann ich mich hier im Detail nicht äußern, sondern will nur vollständigkeitshalber diesen Punkt mitaufführen, da ich das schon einige Male gemacht habe. Wenn man LM einsetzten möchte, dann empfehle ich das im Area 51m höchstens bei der GPU. Bei der CPU wäre mir das Risiko, dass es in den Sockel läuft, doch zu hoch. Außerdem weiß ich nicht wie das Metall des Verschlussmechanismus darauf reagiert, falls mal doch irgendwann Kontakt besteht. Bei der GPU kann man das mit den richtigen Mitteln relativ sicher einsetzten. Man braucht dafür nur Kaptonband und Auslaufschutz. Wichtig ist, dass man das Kaptonband sauber klebt. Am besten erst immer am DIE anlegen und mit leichten Druck (ohne Zug) andrücken. Anschließend kann man dann LM auftragen und eine dünne Schicht Auslaufschutz drum herum. Je nach dem wie die Lüfter aussehen, kann sich ein Blick in die Heatsink durchaus lohnen. Jedoch gibt's auch hier einige Punkte, die man beachten muss. Hier mal ein Beispiel: Man kann noch so gut versuchen von außen mit'm Staubsauger den Staub/ Dreck rauszukriegen, der Größtteil aber verbleibt leider in der Heatsink. Den kriegt man wirklich nur raus, wenn man die Heatsink öffnet. Die Lüfter werden mit drei winzigen Schrauben und schwarzen Mylar-Tape gehalten (pro Lüfter). Das Problem ist, sobald man das schwarze Mylar-Tape (siehe Bild): abzieht, klebt es nicht mehr. Als Ersatz nehme ich immer Aluminium Tape von 3M (Link), aber auch Kapton wäre möglich. Wenn die Lüfter relativ sauber aussehen, braucht man sich über den Punkt keine Gedanken machen. Zum Thema Wärmeleitpads kann ich mich nur bedingt äußern, da die Geräte, die ich bislang so hatte, noch relativ jung waren und die Pads immer gut aussahen. Im NBR-Forum gibt es einen Guide (Thermal Pad Guide), wo man sich verschiedene Informationen zu Pads ansehen kann. Falls man die Pads doch wechseln möchte, kann ein Blick in den Guide sicher nicht schaden. Was die verschiedenen Pads der Hersteller angeht, so hatte ich mich schon mal im Detail dazu geäußert (Wärmeleitpad-Vergleich). Ich empfehle immer die Pads von Arctic. Noch einige Bilder als Ergänzung. Abschließend wollte ich mich noch bei allen Usern bedanken, die bei mir waren und mir die Gelegenheit gegeben haben, hier für das Forum die passenden Bilder zu machen. Ich hoffe, ich konnte mit dem Beitrag dem ein oder anderen helfen und wünsche euch viel Spaß und Erfolg bei dem Repaste. ✌️
    5 Punkte
  48. Jetzt habe ich GTX880M eingebaut und den gemoddeten Treiber installiert, allerdings wurde PhysX Engine nicht installiert. Wie kann das sein? Bin untröstlich, was mache ich jetzt? Auf NVidia Seite enthält die aktuelle PhysX Software eben auch den NVidia Treiber, aber der würde ja die gemoddete Installation kaputtmachen. ? UPDATE: Ich habe das Problem gefunden - ich hatte den gemoddeten Treiber versehentlich im abgesicherten Modus installiert und irgendwie sind da PhysX und GeForce Experience nicht mitgekommen. Ich hab die beiden Komponenten jetzt schön nachinstalliert. ? Alles prima, bis auf internes Audio, was leider über BIOS deaktiviert bleiben muss, damit der Rechner startet. Aber naja, das Risiko war mir bewusst, ich behelfe mir zur Zeit einfach mit Audio über Bluetooth. Top! Nun, jetzt, nach dem erfolgreichen Upgrade möchte ich mich noch bei @MrUniverse, @M18x-Oldie, @Gamer_since_1989, @einsteinchen, @Sk0b0ld, @dude08/15 bedanken! Ohne Eure Beratung und Tipps würde mir die Auswahl der Komponenten sehr viel schwerer fallen! Es war mir eine große Hilfe! Ich habe jetzt übrigens zu i7 2960XM gegriffen. Er ist noch mit WLP montiert. Ich werde mal das Forum nach Benchmark- und Stresstest Infos durchsuchen, möchte natürlich als erstes meine Thermallösungen testen und die neue Leistung mit Benchmarks bewerten und einordnen. Ersten gute Anzeichen gibt es schon - Firestrike Scores haben um Faktor 3,5 bis 4 zugelegt. Heftig!
    5 Punkte
  49. Jetzt nur noch hoffen das es klappt wird aber erst Ende der Woche
    5 Punkte
  50. Es gibt mal wieder ein wenig was zu berichten und zwar habe ich mich noch mal mit dem HS-Mod auseinandergesetzt und versucht wieder etwas mehr Kühlleistung rauszukitzeln. Diesmal habe ich auch das hochgelobte Kupfer und Heatpipes unter anderem ausprobiert. Kurz zur Übersicht was alles ausprobiert wurde und wie es im einzelnen aussieht: HS-Mod Version 1 (3,0 mm Alu SSD-Kühlkörper) HS-Mod Version 2 (8,0mm Alukühlkörper) HS-Mod Version 3 (6,0 mm Kupferkühlkörper) HS-Mod Version 4 (Kupfer Heatpipes) HS-Mod Version 5 (7,0 mm SSD-Kühlkörper) Übersicht zu den Backplates/ Gittern: Backplate-Mod 2 Backplate-Mod 3 Die originale Backplate besitze ich natürlich auch, diese bleibt aber im Original-Zustand. Ich spare mir mal die Bilder dazu. Testverfahren: Getestet habe ich diesmal mit Assassin's Creed Odyssey. Die Grafikeinstellung sind auf Maximum, CPU @ 46x bei -150mV. GPU @ 1.800 MHz bei max. 0,900V und +500 VRAM. Lüfter sind auf 100%, U3-Kühler mit 3x Noctua A12 Lüfter auf 100%. Raumtemperatur 21-23°C. Wie in allen InGame-Testverfahren, ca. 10 Minuten warm gespielt, anschließend HWinfo gestartet/ reset und zwischen 30 und 40 Minuten gespielt. Jeden Test 2x mal gemacht. (SpeedStep & SpeedShift an) Um die Geschichte etwas abzukürzen, hier die Reihenfolge von Schlecht nach Gut: 6ter Platz. HS-Mod mit den Heatpipes. Eigentlich wusste ich es schon vorher, wollte aber vollständigkeitshalber diesen Mod mit in die Bewertung einfließen lassen. Nicht das mir einer mit ner Vapor-Camber-Platte oder so noch ankommt. Grundsätzlich dienen diese Sachen nur zur Wärmeverteilung /-ableitung, nicht aber direkt zur Kühlung bzw. nicht so effizient wie halt ein Kühlkörper. Dementsprechend hat dieser Mod die Temperaturen sogar noch verschlechtert, weil er die Temperaturen über den Heatpipes gestaut hat. Außerdem kann man Mods in dieser Größe nicht gescheit (plan) auf die Heatsink aufbringen. Sieht man auch gut an den Temperaturen im HWinfo Log (siehe unten). 5ter Platz. HS-Mod mit Kupfer. Achja, das hochgelobte Kupfer. Auch hier wusste ich, dass es nicht besser sein wird als Alu. Ich habe vorher nämlich meinen PCH-Alu-Mod gegen einen Kupferkühlkörper getauscht und leider haben sich die Temperaturen nicht verbessert. Leider sogar 2-3 °C verschlechtert. Von daher war klar, dass dieser Mod auch scheitern wird. Der Grund dafür ist, dass Kupfer zwar wunderbar Wärme aufnehmen kann, leider aber nicht so gut abgeben kann wie Alu. @Gamer_since_1989, hat da glaube ich ähnliche Erfahrungen gemacht. Wahrscheinlich ist das auch ein Grund, warum bei CPU-Kühlern die Lamellen immer aus Alu sind. Wie auch immer, Kupfer ist nicht zu empfehlen. Weder als HS-Mod noch als PCH-Kühler. 4ter Platz. HS-Mod mit großen 8 mm Kühlkörpern. Wie auch schon bei den Heatpipes, ist bei diesem Mod die Größe ein Problem. Die Heatsink hat einfach zu viele Erhebungen und Vertiefungen. Dadurch sitzt der Mod vielleicht auf 2-3 Stellen und der Rest ist in der Luft und Luft ist ja bekanntlich kein guter Wärmeleiter. Somit war dieser Mod minimal schlechter als komplett ohne HS-Mod. Zudem könnte der vergleichsweise dicke Boden die Wärme zu lange speichern. Dünne Kühlkörper scheinen besser zu kühlen. 3ter Platz. Gar kein HS-Mod. Tatsächlich ist das blanke Kühlen der Heatsink mit dem U3-Kühler effizienter/ besser als mit irgendwelchen Kupfer- oder Heatpipes Mods. Gemessen jedoch mit der offenen Backplate. 2ter Platz. Die guten, alt bewährten 3mm SSD-Kühler. Passen überall rein (ohne Umbau der Backplate), kosten kaum was und bringen zumindest im oberen Peak-Bereich der CPU und allgemein auf GPU etwas. 1ster Platz. HS-Mod mit den großen SSD-Kühler. Hierbei hatte ich die größte Hoffnung und wurde, zur Abwechslung mal, nicht enttäuscht. Mit diesem HS-Mod konnte ich noch mal ordentlich an Kühlleistung zulegen. GPU chillt beim Zocken nun auf gemütlichen 49-47 °C rum und CPU bei 67-69 °C im Durchschnitt. Sind mit Abstand die niedrigsten InGame-Temps, die ich hatte. Eine übersichtliche Tabelle mit allen Werte mache ich noch fertig. Zum Vergleich ein paar HWinfo Logs von dem Heatpipe-Mod und den SSD-Kühlern. Den Heatpipe-Mod habe ich schon nach 20 Minuten abgebrochen. Die Werte waren einfach zu schlecht und wahrscheinlich wären sogar noch schlechter geworden. Heatpipe-Mod HS-Mod Version 5 und dann noch mal der Mod mit der offenen Backplate: und noch mal der Vergleich ohne HS-Mod: Für den ein oder anderen mag das nicht sonderlich viel erscheinen, man muss aber bedenken, dass es in meinem Setup unheimlich schwierig ist, die Temperaturen noch weiter zu verbessern. Gerade wenn es in den Grenzbereich geht, zeigt der Mod seine Wirkung. So konnte ich bei erneuten Bench-Versuchen (R20 & FF) wieder neue High-Scores holen, weil mein VRM durch die Kühlung länger durchhält. Im 7 Minuten langen FF-Benchmark waren somit gleich 1.041 Punkte mehr drin, trotz gleichen Einstellungen.
    5 Punkte
Diese Rangliste nutzt Berlin/GMT+01:00 als Grundlage
×
×
  • Neu erstellen...

Wichtige Information

Bitte beachten Sie folgende Informationen: Nutzungsbedingungen, Datenschutzerklärung und Community-Regeln. Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.