Zum Inhalt springen

Community durchsuchen

Zeige Ergebnisse für die Tags "'Alle Modelle (Notebooks)'".

  • Suche nach Tags

    Trenne mehrere Tags mit Kommata voneinander ab.
  • Suche Inhalte eines Autors

Inhaltstyp


Forum

  • Alienware-Community
    • Informationen & Feedback
    • Uservorstellungen
    • Marktplatz
    • Hardware & Software News
    • Community Games
  • Alienware Stuff
    • Alienware News
    • Alienware/Dell Support
    • Lieferstatus
    • Preise & Rabatte
    • Exklusives
  • Aktuelle Alienware Notebooks (2014 - Heute)
    • Allgemeines & Troubleshooting
    • Anleitungen & How To
    • Erfahrungsberichte & Benchmarks
    • Upgrades - Do-it-Yourself
    • Kauftipps & Entscheidungshilfen
  • Legacy Alienware Notebooks (2002 - 2014)
    • Allgemeines & Troubleshooting
    • Anleitungen & How To
    • Erfahrungsberichte & Benchmarks
    • Upgrades - Do-it-Yourself
    • Kauftipps & Entscheidungshilfen
  • Alienware Desktops (1996 - Heute)
    • Allgemeines & Troubleshooting
    • Anleitungen & How To
    • Upgrades - Do-it-Yourself
    • Erfahrungsberichte & Benchmarks
    • Kauftipps & Entscheidungshilfen
  • Zubehör
    • Alienware Zubehör
    • Andere Hersteller
  • Andere PC-Komponenten und Komplettsysteme
    • Allgemeine Fragen & Troubleshooting
    • Anleitungen & How To
    • Barebone Systeme
    • Sonstiges
  • Off-Topic
    • Windows Help-Center
    • Internet - Entdeckungen
    • Dies und Das

Kategorien

  • Anleitungen
  • Handbücher
    • Alienware - Desktops
    • Alienware - Notebooks
  • Benchmark- und Hardwaretools
  • Must Have Software
  • Software für Alienware-Features
  • Treiber und Updates
  • Windows Styles
  • BIOS Versionen
    • Offizielle Notebook-Versionen
    • Offizielle Desktop-Versionen
    • Unsortiert

Kategorien

  • Notebooks
  • Desktops
  • Peripherie
  • Hinweise

Suchtreffer finden in...

Suchtreffer enthalten ...


Erstellungsdatum

  • Beginn

    Ende


Zuletzt aktualisiert

  • Beginn

    Ende


Suchtreffer filtern nach ...

Benutzer seit

  • Beginn

    Ende


Gruppe


Wohnort


Beruf


Komplett PC (nicht Alienware)


Eigenbau PC


Notebook Generationen


Zubehör


Website URL


Skype


Battle.net


EA Origin


GOG COM


Steam


Uplay

  1. Durch die vielen Repastes ist mir schon häufiger aufgefallen, dass User, obwohl sie NVMe SSDs wie die Samsung 970 Evo plus verbaut haben, im standardmäßigen "RAID on" Modus unterwegs sind. Für PCIe NVMe SSDs ist der richtige Modus aber AHCI. Für diejenigen, die nicht genau wissen worum es geht, es ist im BIOS eine auswählbare Funktion wie die Speichercontroller angesprochen werden und mit dem Chipsatz/ System kommunizieren. Natürlich funktionieren die NVMe SSDs auch im RAID on Modus, jedoch sind hier dann einige Funktionen eingeschränkt oder stehen nicht zur Verfügung. Beispielsweise lässt sich die SSD nicht mit den herstellereigenen Tools öffnen und verwalten (Samsung Magician). Auch lässt sich der dazugehörige NVMe Treiber nicht installieren. Die Festplatte läuft dann auf einem Standard-Intel RST Treiber. Das lässt sich relativ einfach im Geräte-Manager nachprüfen: Da ich vor einiger Zeit zwei m15 hier hatte, habe ich ChrystalDiskMark durchlaufen lassen. Dabei war das Testgerät im RAID on Modus und hatte zwei NVMe SSDs verbaut. Mein Gerät ist im AHCI Modus und hat zwei Samsung 970 EVO Plus SSDs verbaut. So sehen die Ergebnisse aus: Gerade bei den Schreibgeschwindigkeiten ist der Unterschied doch schon enorm. Fairerweise muss aber auch sagen, dass das Testgerät mit den von Dell verbauten SSDs daherkam. Ich habe diese als OEM deklariert. Was mich jetzt brennend interessiert: wie performt die Samsung 970 SSD im RAID on Modus? Würde mich freuen wenn das jemand abchecken und online stellen könnte. Danke Ich hatte versucht Informationen dazu zu finden, aber wirklich verlässliche Infos habe leider nicht gefunden. Im XPS-Forum wurde wohl was von ca. 5% Leistungsverlust gesprochen, wobei der Beitrag auch schon mehrere Jahr alt ist. Samsung empfiehlt jedenfalls AHCI um den vollen Funktions- und Leistungsumfang nutzen zu können. Vor allem die volle Schreib- und Leseleistung soll nur mit dem Samsung NVMe Treiber möglich sein. Noch ein paar Anmerkungen: Hat man sein OS im RAID on Modus laufen, kann man nicht einfach auf AHCI wechseln. Das OS, welches im RAID on Modus installiert wurde, lässt sich dann nicht mehr booten. Möchte man AHCI nutzen, ist leider dafür eine Neuinstallation nötig. Den ChrystalDiskMark findet ihr -HIER-. Wie gesagt, würde mich freuen, wenn einer, der die Samsung 970 EVO Plus verbaut hat und im RAID on Modus ist, einen kurzen CrystalDiskMark durchlaufen lassen könnte. Einfach installieren und ausführen, keine weiteren Einstellungen nötig. Bin gespannt wie klein oder groß der Unterschied ausfällt.
  2. Zur Info, weil es sich "wieder mal" zu häufen scheint: Auf älteren Maschinen knallt es jetzt in Verbindung mit dem neuesten Win 10 und Support Assist. Bluescreens, Freezes usw. Ich konnte das jetzt auf allen meinen Oldies reproduzieren. M15X, Area51 ALX, X51, X58. Also wenn es Probleme gibt, den SA als erstes mal deinstallieren. Spart ne Menge Zeit und Ärger 😏👽
  3. Hallo, ich bin neu hier im Forum. Ich hatte auch vorher nie ein Alienware Produkt. Ich bin im Besitz eines neuen Laptops M17 R5. Gestern hatte mein Laptop ein irgendein Alienware Update durchgeführt. (Erst grüner Ladebalken, dann Neustart). Beim Neustart blieb der Bildschirm schwarz. Hatte dann irgendwann ausgeschaltet (Vielleicht war das der Fehler). Seitdem bleibt der Bildschwirm schwarz beim Neustart. Ich bin jetzt schon seit Stunden den Support am durchlesen. Wollte auch ein BIOS reset machen. Auch BIOS von USB Stick neu laden (Die aktuelle Version für meinen Laptop habe ich frisch von der Supportseite runtergeladen). Leider alles ohne Erfolg. Wollte den Premium Support anrufen. Aber die Nummer sei nicht vergeben. Ich hoffe, ich finde hier Hilfe. Grüße Sven
  4. Guten Tag, ich habe vor einigen Tagen ein neues Notebook bestellt (X15 R2) Jetzt stellt sich mir die Frage wie eine perfekte Installation (Treiber sowie der Rest) der Reihe nach abläuft. Auf was muss ich achten? Am besten Schritt für Schritt erklärt. Konnte leider nichts aktuelles zu dem Thema finden, weshalb ich es hier nochmal aufgreifen möchte. Bedanke mich schonmal herzlich für die Antworten! Mfg Daniel
  5. Da es gerade bei bastellustigen Alienwarebenutzern immer wieder dazu kommt, dass Grafikkarten in Notebooks verbaut werden die Dell nicht nativ angeboten hatte, werden Änderungen notwendig um den Treiber von nVidia installieren zu können. Fast genauso häufig wie dieser Treiber benötigt wird ist auch die Frage danach wie man den Treiber anpasst. Fangen wir jedoch einen Schritt vorher an. Wieso muss ein passender Treiber überhaupt erst manuell angepasst werden um installiert zu werden? Hier liegt die Verantwortung bei nVidia und deren Hardwareerkennung. Der Treiber kontrolliert leider nicht nur die HardwareID der Grafikkarte sondern die Kombination aus Notebook und Karte. Wenn nun eine dieser Kombinationen vom Hersteller, in unserem Fall Dell, nicht an nVidia gemeldet wurde taucht die ID nicht in der Erkennung auf. Und genau hier setzen wir nun an und holen dies nach. -Wie ist die HardwareID aufgebaut? -Welche Datei muss ich ändern? -Welche Änderungen müssen vorgenommen werden? -Muss ich sonst noch etwas beachten? Wie ist die HardwareID aufgebaut? Die Hardware-ID der Grafikkarte finden wir im Geräte-Manager. Wenn noch kein Treiber installiert ist heißt unsere Grafikkarte dort "Standart-VGA", "Microsoft-Standart-Anzeigegerät" oder ähnliches. Dieser Name ändert sich später durch den Treiber. Um dieses Tutorial möglichst leicht verständlich und nachvollziehbar zu gestallten ist es nicht unwichtig zu wissen wie die benötigte HardwareID aufgebaut ist. Nehmen wir uns als Beispiel eine GTX680m in einem M17xR2. PCI\VEN_10DE&DEV_11A0&SUBSYS_043A1028 VEN_10DE = nVidia DEV_11A0 = GTX 680M 043A = M17xR2 1028 = Dell Welche Datei muss ich ändern? Nachdem wir versucht haben den neuen Treiber von nVidia zu installieren und dieser Versuch abgebrochen wurde findet sich der bereits entpackte Treiber auf der Festplatte, meist unter C:\NVIDIA\DisplayDriver\VERSION\Win8_WinVista_Win7_64\International\Display.Driver\ In diesem Ordner befinden sich u.a. folgende INF-Dateien. nvaci.inf Acer, Gateway nvami.inf Asus nvaoi.inf Apple nvbli.inf HP nvcti.inf Compal nvcvi.inf Clevo nvdmi.inf Dell nvfmi.inf Fujitsu nvfui.inf Siemens nvhmi.inf HP nvloi.inf LG nvlti.inf Lenovo nvmi.inf MSI nvqni.inf NEC nvszci.inf Sony nvtdi.inf Toshiba Qosmio nvtsi.inf Toshiba Welche Datei hiervon wir nun ändern ist prizipiell egal, denn bei der Installation werden ohnehin alle Dateien nach einer passenden HardwareID durchforstet. Der Ordnung halber verwende ich jedoch die "nvdmi.inf". Welche Änderungen müssen vorgenommen werden? Kommen wir nun zum Kernthema. Es sind nur zwei Zeilen die wir der Datei hinzufügen müssen. Die erste Zeile sagt dem Treiber, dass unsere HardwareID kompatibel ist. Um die Stelle der ersten Änderung zu finden ist es wichtig zu wissen welches Betriebssystem verwendet wird. Sucht jeweils die Zeile die zu eurem OS passt. 1.1 Vista [NVIDIA_SetA_Devices.NTamd64.6.0] 1.2 Win7 [NVIDIA_SetA_Devices.NTamd64.6.1] 1.3 Win8 [NVIDIA_SetA_Devices.NTamd64.6.2] 1.4 Win8.1 [NVIDIA_SetA_Devices.NTamd64.6.3] In der Zeile darunter tragen wir nun folgendes ein: %NVIDIA_DEV.11A0.043A.1028% = Section033, PCI\VEN_10DE&DEV_11A0&SUBSYS_043A1028 Natürlich müsst ihr diese Zeile euerer HardwareID entsprechend anpassen. Die zweite Zeile die wir ändern sagt dem Treiber wie er die Karte anschließend benennen soll. Sucht die folgende Zeilen (OS ist dieses mal egal): DiskID1 = "NVIDIA Windows (64 bit) Driver Library Installation Disk 1" NVIDIA = "NVIDIA" NVIDIA_A = "NVIDIA" In der Zeile darunter tragen wir nun unsere Karte ein. In unserem Beispiel wäre dies: NVIDIA_DEV.11A0.043A.1028 = "NVIDIA Tuschkasten GTX 680M" Auch diese Zeile muss etsprechend eurer HardwareID angepasst werden. Anschließend müssen wir nur noch die Datei speichern und die Installation neu starten. Hierzu folgende Datei ausführen: C:\NVIDIA\DisplayDriver\VERSION\Win8_WinVista_Win7_64\International\setup.exe Muss ich sonst noch etwas beachten? Da der Treiber nun modifiziert ist stimmt er nicht mehr mit der digitalen Signatur überein. Bei Vista und Win7 ist dies nicht weiter schlimm. Hier muss man nur bestätigen, dass der Treiber dennoch installiert werden soll. Ab Win8 hingegen muss zuerst die Installation von nicht signierten Treibern zugelassen werden. Hierzu die Eingabeaufforderung öffnen (WinTaste+X) und folgendes eingeben: bcdedit /set {current} testsigning yes Danch Windows neu starten und den Treiber installieren. Um die Installation nicht signierter Treiber wieder zu unterbinden erneut die Eingabeaufforderung öffnen und folgendes eingeben: bcdedit /set {current} testsigning no Auch diese Änderung wird erst nach einem Neustart wirksam.
  6. Hallo zusammen, ich habe ein Alienware 17 R5 Notebook, welches ich gebraucht gekauft habe. Nun wollte ich mir mal die Gaming-Makro-Tasten (FX-Tasten!?) konfigurieren um diese zu nutzen. Wie ich Makros konfiguriere weiss ich eigentlich, da ich an meinem PC eine Logitech-Tastatur habe. Im Alienware Command-Center bin ich oben auf FX gegangen, dann bei dem Standarddesign (ich habe kein anderes bisher) auf "Makros" und darunter die Tastatur "Alienware 17 R5 Standard KB" ausgewählt. Dann bin ich auf das Plus gegangen um ein Makro zu erstellen. Hier habe ich "Tastenanschlag" gewählt, einen Namen ("Test") vergeben, Tastenanschlag habe ich die Taste "1" genommen und Wiederholung keine ausgewählt. Dann auf Speichern im Ordner "Meine Makros". Dann habe ich das Makro "Test" auf die Makrotaste gelegt und bin dann unten auf "Design speichern" gegangen. Mein Problem ist nun, dass nichts passiert, wenn ich die belegte Makrotaste klicke!?!?!?!?!?!?!?!?!? Ich habe eine Textdatei aufgemacht, jetzt sollte eigentlich eine 1 geschrieben werden, wenn ich die Makro-Taste klicke. Leider passiert dies nicht... Was muss ich tun, damit es funktioniert????? Ich bin total verzweifelt! Bisher hatte ich immer alles hier im Forum gefunden, wenn ich was wissen wollte, aber zu diesem Problem finde ich nichts. Habe es auch schon mit einer Word-Datei versucht. Alienware Command-Center sollte auf dem aktuellen Stand sein, da mir im Alienware UpdateCenter kein Update angeboten wird. Grüße Alien17R5
  7. hallo leute . ich bin zwar schon über 50 aber kenne mich mit computer normal aus habe aber ein selber nicht lösbares problem ich habe ein m18xr2 . letzten monat wollte mein g.data virenscanner ein update auf eine neue version machen .alles lief prima wie immer aber dann sagte mir g.data das ich nicht die neuste microsoft version hätte .ich also auf update gegangen und system sagte sie sind auf dem neusten stand .also wieder probiert ,gleiche problem . ich habe dann bei g-data angerufen ,der herr fragt mich dann welche microsoft version ich hätte und es stellte sich raus 1903 ,haben müsste ich aber 21h2 . er sagte dann ich soll mir das 21h2 über windows upgrate runterholen ,und aber vorher g.date deinstalieren und wieder drauf machen . so beides hat nich geklappt .ich habe eine 2 tb ssd drinn davon ist nur knapp ein tb belegt . es kommt immer die meldung das das system nicht auf einen stick kann ,obwohl ich garkeinen habe . so und ich habe dann auch kein d.data schutz mehr . ich habe dann versucht das problem zu lösen ,aber kein erfolg ,dann habe ich mir wohl eine malware eingefangen .also malewirbites runtergeladen laufen lassen ,aber noch mehr probleme gehabt ,das ding wollte nur was machen wenn ich voll bezahle .also wieder runter und malware hunter drauf .das hat 2 gefunden und die gelöscht . laut taskmanger ssoll aber dell selber die leistung hochfahren für viele daten .so ich habe jetzt aus not mal das avira drauf gemacht .damit ich was schutz habe . so 21h2 bekomme ich trotz tool nicht drauf beider versionen probiert . und die lüfter drehen hoch ohne grosse belastung,beim start alles normal lüfter leise nach 3 bis 5 minuten trotz leerlauf drehen die hoch . so wer kann mir helfen ? ich habe teamviewer drauf . wenn jemand sich das ankucken könnte und helfen wäre klasse .ich würde bei hilfe auch geld bezahlen .über eine paysafe karte . so ich hoffe es gibt hier paar computerfachmänner hier ? wer kann mir helfen mfg crusi
  8. Ich würde Vorschlagen das wir über Neue Hardware hier weiter schreiben und das „Wartezimmer“ auch so genutzt wird. Sprich egal ob asus, Msi und co. Kann hier alles rein. So kann man sich auch freier Unterhalten. Ich Persönlich hätte am liebsten das Duo 16 von asus, aber auch das Z13 Reizt mich. Die ganzen Windows Handhelds werden auch immer interessanter. _______ Zum Start wird es aber wohl wieder so sein das „eher“ MSI und Razer überall erhältlich sein werden. Auf was wartet Ihr denn so bzw. Wollt Ihr euch evtl bestellen.? PS: Nett währe es, wenn man über ein gerät spricht direkt (wenn man es weiß) die TDP der Grafikkarte dazu schreibt. So lets Gooo
  9. Also ich hab hier ein Problem. Beziehen wir uns mal auf das Razer Blade 17 2021 MID mit i9 11900h, 32 GB Crucial Ballistix, 2 TB Raid 0 mit 2x 980 Pro, RTX 3080 mit 130W TGP, 4k 120 Hz Touch-Display mit 100% RGB Abdeckung. Soweit so gut. Ich habe die Pads auf Stock gelassen und Conductonaut aufgetragen. Da man bei Razer die Lüfter nicht steuern kann unter Höchstleistung, sondern nur unter "Balanced" dort aber die Leistung rapide sinkt, hab ich ein thermisches Problem. Das Gerät stürzt ab und zu ab. BSOD WHEA UNCORRECTABLE ERROR. Ich hab die Vermutung, dass Synapse die Lüfter anhand der CPU und GPU einstellt und die Hotspots sowie VRAMs, Mosfets außen vor lässt und es daraufhin zu einem Absturz kommt. Jetzt hab ich mir mal sehr viel Pads gekauft in verschiedenen Stärken und WM/K angaben, wobei diese ja auch mit Vorsicht zu genießen sind. Ich habe sogar Messequipment womit ich die Paddicke messen kann. Jetzt eine Frage an die absoluten Profis: Das Teil hat ja ne riesige Vapor-Chamber und welche Pads würdet ihr mir empfehlen sowie würdet ihr zusätzliche Bereiche abdecken, um evtl. die Wärme besser ableiten zu können? Die selbe Frage gilt auch für mein M17 R4. Welche Pads vorhanden sind könnt ihr den Bildern entnehmen. Dann hab ich Kryonaut, Conductonaut und K5 Pro. Ich will wirklich das Maximum herausholen. Zusätzlich habe ich noch einen Coolermaster Notepal U3 mit 3x Noctua 120mm Lüftern (Danke dafür an @Sk0b0ld für die Anleitung) Das Razer hat ja auch 4 Lüfter um den Airflow zu verbessern. Wenn ihr sonst noch irgendwelche Tipps habt um mehr aus der Kühlung herauszuholen gerne her damit. Ich bedanke mich für eure Mühe! Anbei ein paar Bilder von meinem "Wochenendprojekt" Sollte ich die Pads vom Backcover ebenfalls austauschen? Eher dünnere Pads oder dickere? Es gibt ja auch noch den Shore Wert, den man evtl. noch mit berücksichtigen sollte. Mittlerweile sind auch die einzelnen Dicken der Stockpads ausgemessen worden, die Frage ist jetzt welche ich nehme oder doch K5 Pro? Hab jetzt alles soweit vorbereitet ich warte nur noch auf Rückmeldung. Wichtig wäre mir auch, ob es was bringt noch andere Bereiche auszufüllen beispielsweise mit K5 Pro oder Pads.
  10. Nach dem der erste Versuch die Wärmeleitpads zu testen fehlschlug, beschloss ich die Sache erneut anzugehen. Diesmal aber etwas praxisbezogener, genauer und mit einer besseren Vergleichbarkeit. Vorwort Zunächst ein paar Sachen, die ich im Vorfeld beleuchten möchte damit man meine Entscheidungen und mein Vorgehen besser nachvollziehen kann. Eins aber gleich vorweg, sicher hätte man vielleicht den Test noch besser oder noch genauer machen können, aber so ein Test, in so einem Ausmaß durchzuführen ist sehr zeitintensiv und äußerst mühsam. Gerade bei einem Notebook, welches man immer wieder komplett zerlegen muss um das Wärmeleitpad zu tauschen. Angesichts der insgesamt 50 Tests bitte ich das zu berücksichtigen. Ansonsten Kritik, Lob, Verbesserungsvorschläge usw. nehme ich immer gerne an und jedem steht es frei eigenen Tests zu machen. Mit welchem Gerät wurde getestet? Da ich den Versuch so praxis- und anwendungsnah wie möglich nachstellen wollte, habe ich mir verschiedene Notebooks (MSI, Clevo, Toshiba) als Testgerät hierfür besorgt. Meinen AW17 R5 wollte/ konnte ich aus verschiedenen Gründen nicht dafür nehmen. Schlussendlich fiel die Entscheidung auf das Toshiba Notebook, genauer gesagt auf das Toshiba Satellite C70D-A-11D. Ein entscheidender Grund war die Heatsink. Diese war beim Toshiba vollständig aus Aluminium (bis auf die Heatpipe), sowie im Anwendungsgebiet der Wärmeleitpads. Mit Kupfer wollte ich nicht die Gefahr eingehen, dass ich mir vielleicht die Ergebnisse versaue bzw. nicht so eine Vergleichbarkeit besteht wie mit Aluminium. Ein weiterer Grund für das Toshiba C70D war die Befestigung der Heatsink. Die Schrauben hatten alle einen festen Endpunkt und der eigentliche Anpressdruck wurde über die Federn ausgeübt. So konnte ich sicher sein, dass ich bei allen Tests immer den gleichen Anpressdruck habe. CPU und GPU befanden sich beide auf einem Chip: AMD A6-5200 APU with Radeon HD 8400 Graphics Was genau wurde getestet? Getestet wurden verschiedene Hersteller der Wärmeleitpads, ebenso auch die verschiedenen Stärken/ Dicken, aber auch anderes Zeug wie K5-Pro oder Wärmeleitklebeband und letztendlich noch eine Wärmeleitpaste als direkter Vergleich zu den Pads. Hier mal eine kurze Übersicht: Thermal Grizzly Minus Pad 8 in 1,0 und 0,5 mm (Hersteller-Link) (8 W/mK) AlphaCool Eisschicht in 1,5, 1,0 und 0,5 mm (Hersteller-Link) (7 /11 /17 W/mK) Arctic Thermal Pad in 1,5, 1,0 und 0,5 mm (Hersteller-Link) (6 W/mK) EKWB Thermal Pad G in 1,0 und 0,5 mm (Hersteller-Link) (3,5 W/mK) Computer Systems K5-Pro (Hersteller-Link) (>5,3 W/mK) Wärmeleitklebeband 0,2mm (Kauf-Link) Noctua NT-H2 Wärmeleitpaste (Hersteller-Link) Wie wurde getestet (Testbedingungen)? Hierzu habe ich einen IDLE und einen LOAD Test gemacht. Bei jedem Wärmeleitpad habe ich diese beiden Tests jeweils zwei Mal gemacht, sprich vier Tests pro Wärmeleitpad. Mit dieser Methode wollte ich gegebenenfalls Messfehler ausschließen und die Genauigkeit erhöhen. Alle Tests liefen 15 – 16 Minuten und es wurde penibel darauf geachtet, dass alle Fenster an der gleichen Stelle sind, der Log immer an derselben Stelle losgeht, immer die gleichen Einstellungen geladen sind usw. Schließlich wollte ich diesmal alles so sauber wie möglich testen. Für den IDLE-Test habe immer ein Youtube-Video laufen lassen. Es war ein 15-minütiges Countdown-Video mit Alarm. Das hat das Loggen etwas vereinfacht und das Video hat verhindert, dass das Notebook den Bildschirm abdunkelt oder in den Energiespar-Modus geht oder sonst was. Bei Notebooks wie Toshiba, Acer usw. ist immer sehr viel Bloatware mit installiert. Da weiß man nie so wirklich wie sich das Notebook unter gewissen Umständen verhält. Deswegen was Einfaches, was kaum Last erzeugt und zuverlässig funktioniert. Für den LOAD-Test habe ich Cinebench R20 genommen. Ich habe ihn gewählt, weil dieser 100% Last auf allen Kernen erzeugt und glücklicherweise mit dem alten Toshiba Notebook ebenfalls 15 – 16 Minuten geht. Es wurde immer erst der IDLE-Test und anschließend er LOAD-Test durchgeführt. Dann würde halbe Stunde gewartet und wieder IDLE- und LOAD-Test. Bei allen Tests habe ich auch immer darauf geachtet, dass die CPU Package Power (Gesamtverbrauch) ihre „bestimmten“ Werte erreicht. So konnte ich ziemlich sicher sein, dass der Test sauber durchgelaufen ist. Dazu im Chart dann mehr. Außerdem wurde auch auf die Raumtemperatur geachtet. Dank der Belüftungsanlage in der Wohnung und des geringen Stromverbrauchs (= Abwärme) des Notebooks, betrug sie bei allen Tests konstant 22 – 23 °C. Auf allen Tests stand das Notebook auf einem Cooler Master U3-PLUS Kühler OHNE Lüfter. Damit wollte ich verhindern, dass sich das Gehäuse bzw. die Tischplatte aufheizt oder sich Stauwärme oder dergleichen bildet. Außerdem war das Arbeiten in der Position für mich angenehmer. Geloggt wurde das Ganze übrigens mit HWinfo und später in Excel übernommen. Nun zu dem Wichtigsten, dem Ergebnis. Wie ich schon vermutet habe, erzeugen dickere Pads mehr Widerstand und dementsprechend schlechtere Temperaturen. Wobei die Eisschicht-Pads von Alphacool bei der 1,0mm Dicke die Nase vorn hatten. In der Dicke 0,5mm gibt unter den Herstellern kaum ein Unterschied. Sie performen alle relativ gleich gut, auch K5-Pro und die Pads von Arctic. Außer die Pads von EKWB, die waren in allen Tests verhältnismäßig schlecht, leider. Ich habe da auch einen Verdacht, dazu aber später mehr. Das Wärmeleitklebeband hat mich schon ein wenig überrascht. Obwohl es sehr dünn mit 0,2mm war, war es so dermaßen schlecht, dass ich mir zwei weitere Tests gespart habe. Dort wurde selbst im Cinebench weiter runtergetaktet als im idle. Erst dachte ich, hmmm vielleicht ist es zu dünn und hat sich gelöst, aber bei der Demontage hat das Tape verdammt gut geklebt und ich habe die Heatsink nur mit sehr viel Kraft abbekommen. Also eine Verbindung bestand definitiv. Für eine bessere Lesbarkeit habe ich noch die Spalte "°C pro erzeugten Watt" aufgelistet, weil nur die nackten Zahlen manchmal täuschen können. Natürlich erzeugt weniger Last (Package Power) auch weniger Wärme und man muss das in die Bewertung mit einfließen lassen. Genauso auch die Drehzahl der Lüfter, wobei diese sowohl im IDLE als auch im LOAD überwiegend immer gleich war. Jetzt mal Noctua und das Wärmeleitklebeband außen vorgenommen. Obwohl ich darauf geachtet habe, dass alles so sauber wie möglich getestet wird, ist mir ein Ausrutscher leider trotzdem rein gekommen und zwar bei der Nr. 41. Normalerweise wurde im IDLE-Test immer so um die 3,xx Watt erzeugt. Hier war es knapp das Doppelte, weil wahrscheinlich irgendein Hintergrundprozess lief. Glücklicherweise habe ich aber immer einen zweiten Test gemacht und dieser entspricht mehr allen anderen IDLE-Tests im Vergleich. Deshalb bitte nur diesen werten. Da ich nicht genau weiß wie klein das Chart bei euch auf dem Bildschirm dargestellt wird, habe ich es vergrößert und in der Mitte geteilt. Somit sollte man alle Werte erkennen können. Interessant finde ich, dass die Hersteller mit ihren Wm/K - Werten sich immer gegenseitig überbieten und die teuren Pads angeblich so viel besser die Wärme weitergeben als die günstigen. Vergleicht man die W/mK-Werte der Hersteller und mein Ergebnis, kann ich mir nur schwer vorstellen, dass die W/mK-Werte tatsächlich einem genormten Test entsprechen. Gut, aber das kennt man ja schon von Wärmeleitpaste und Lüfter. Hersteller testen gerne unter ihren "eigenen" Testbedingen um das eigenen Produkt besser dastehen zu lassen. Wärmeleitpaste kann man noch einfach selber testen und es gibt dazu auch etliche Videos auf Youtube, aber zu Wärmeleitpads gibt es kaum ausführliche Tests. Und da man das nicht so einfach selber testen kann, musste man also hoffen, dass der Mehrpreis für das Produkt auch gerechtfertigt ist. Deswegen habe ich diesen Test gemacht.
  11. Ich möchte mir jetzt bzw. spätestens im Herbst eine Aurora R12 kaufen. Ich habe mir diese Konfiguration ausgesucht: Ich bin mir noch nicht ganz sicher ob ich jetzt oder erst am Black Friday bestelle. Bei jetziger Bestellung könnte ich einen 10% Gutscheincodes nutzen. Am Black Friday gibt es meistens auch nicht viel mehr (12% bis 14%) Mit ca. 2700€ liege ich auch am meinem Limit mehr möchte ich nicht investieren. Jetzt zu meinen Fragen, kommen im Herbst vielleicht noch neue Intel CPUs ? Vielleicht noch 90€ mehr für den I9 ausgeben? Nvidia hat gerade die TI GPU rausgebracht, da wird wohl dieses Jahr nichts mehr neues kommen denke ich. Der Aufpreis zur 3080 ist aber eine Frechheit finde ich. Vielen Dank für eure Mühe, grüße aus den hohen Norden😁
  12. Hallo zusammen, es ist soweit. Wie ich schon ab und zu fallen ließ, arbeite ich im Moment an einer Problemlösung für nicht mehr funktionierende Lüfter nach einem GPU Upgrade - bzw. es ist für alle praktisch, die eine größere Freiheit beim konfigurieren ihrer Lüfter möchten. Ich habe eine kleine Platine entwickelt, auf welche zwei bis drei Lüfter + Temperatursensoren gesteckt werden können. (Alternativ löten um in neueren Geräten Platz zu sparen) Was macht diese Platine? Die Platine misst direkt am Kühlkörper die Temperatur und kann, anhand einer eigenen Lüfterkurve, die Lüfterdrehzahl regeln. Die Temperaturmessung am Kühlkörper bietet einen großen Vorteil, den sämtliche anderen Regelungen (ob ab Werk oder per Software) nicht haben. Der Lüfter kühlt schließlich in erster Linie den Kühlkörper. Daher ergibt es keinen Sinn, dass der Lüfter bei jeder kleinen Temperaturspitze der CPU/GPU schon anspringt. Um das zu verhindern ist ab Werk eine programmierte Verzögerung mit drin, die aber immer nur ein Faustwert ist. Der nächste Vorteil der eigenen Regelung ist, dass man die Drehzahl viel tiefer einstellen kann, bis auf 200rpm runter. Aktuell schalten die Geräte zwischen leisem Lüftergeräusch und keinem Geräusch hin und her. Es ist aber möglich, den Lüfter so langsam laufen zu lassen, dass man im Idle Betrieb eine ausreichende Kühlleistung hat und den Lüfter trotzdem nicht hören kann. Bei meinem Testlüfter (18 R1) entspricht das ca. 650rpm. Test der Kühlleistung (natürlich mit meinem 18R1) Aus einem Grund, den ich weiter unten noch erkläre habe ich einen reinen CPU Test gemacht: Ich habe meinen i7 4930mx auf allen Kernen auf 4.1GHz übertaktet und den Laptop für gleiche Bedingungen zwischen den Tests zwei Stunden abkühlen lassen. Zwei Minuten nach dem Einschalten habe ich Prime 95 gestartet und die Zeit gemessen, nach der die CPU bestimme Temperaturen erreicht hat. Standard Lüfterprofil: 60°C nach 2s | 70°C nach 4s | 80°C nach 11s | 85°C nach 22s Eigenes Lüfterprofil mit SpeedFan: 60°C nach 2s | 70°C nach 13s | 80°C nach 49s | 85°C nach 1:55min Lüfterplatine: 60°C nach 2s | 70°C nach 19s | 80°C nach 1:12min | 85°C nach 2:15min Die Temperatur nach 10min war immer gleich (+- 2°C). Zu Beobachten ist, dass sich die Platine deutlich agiler verhält als die Standardregelung, was sich in Spielen positiv auf die Temperatur und Lärmbelästigung auswirken sollte. Zudem Wird der Lüfter gefühlt Stufenlos schneller/lauter was des Geräusch subjektiv angenehmer macht. Warum sollte? Wo ist der Spieletest und warum nur die CPU? Ich habe bei meiner Version 1 leider einen kleinen aber unangenehmen Rechenfehler gemacht. Ich habe vergessen einen Divisor zur Taktrate des PWM Signals hinzr zu rechnen, weshalb des PWM Signal ein laut hörbares Spulenfiepen erzeugt. Hätte ich den Divisor nicht vergessen hätte ich direkt an einen externen Oszillator für den Mikrokontroller gedacht und die Frequenz wäre im nicht hörbaren Bereich gewesen. So muss ich leider noch eine Version zwei entwickeln. Aber: Durch Fehler lernt man doch immernoch am besten. Was haltet ihr davon? Bitte haltet euch mit eurer Kritik nicht zurück! Ich kann alles von "So etwas dummes habe ich noch nie gehört. " bis "Cool das will ich auch" verkraften. Hilfreichen wären auch Ideen was so eine Platine eurer Meinung nach noch können sollte. Wie eingangs erwähnt ist die Platine hauptsächlich dafür gedacht, wenn man (wie ich) das Problem hat, dass die Lüfter nach einem GPU Upgrade nicht mehr laufen. Aber auch für eine bessere Einstellbarkeit kann sie verwendet werden. Da ich alles (Platine und Programm) selber entwickelt habe gibt es auch kein Copyright. Also falls jemand Interesse an der verbesserten Version 2 hat, gerne schreiben, dann rücke ich auch die CAD Daten und das Programm raus. Ich berichte hier natürlich, sobald die Version 2 angekommen, bestückt, programmiert und getestet ist. Bis dahin freue ich mich über eure Meinung dazu.
  13. Hallo Zusammen, ich habe hier einen AW Area51m r2 mit 2x 16gb hynix speicher 3200 drinnen, laut Lieferschein soll es aber angeblich nur 2933 sein, aber auf dem DIMM steht 3200 drauf. Jetzt kommt meine Frage, wenn ich im BIOS XMP aktivieren möchte geht es nicht der Riegel läuft auch nur auf 2933 mit 21-21-21-47 timinigs, kann man den wirklich nicht auf 3200 mhz laufen lassen, hat da jemand schon Erfahrungen mit gemacht? Ich habe hier alternativ noch ripjaws 3000 rumliegen mit 16-16-18-42 timings meint ihr die sind noch besser wenn man die anderen auf 3200 stellen kann? Vielen Dank vorab
  14. Nachdem ich in meinem letzten Tutorial versucht habe allgemein verständlich zu erklären wie man die Treiber von nVidia so anpasst, dass sie auch mit anderen Kombinationen aus Notebook und vom Hersteller nativ angebotenen Grafikkarten funktionieren möchte ich dieses mal darlegen wie man das vBIOS seiner Grafikkarte flasht. -Wozu das vBIOS flashen? -Wo bekomme ich ein vBIOS her? -Was benötige ich? -Wie flashe ich ein vBIOS? -Welche Folgen hat das Flashen? Wozu das vBIOS flashen? Mobile Grafikkarten unterliegen diversen Beschränkungen der Leistung. So ist, um ein Beispiel zu nennen, häufig die einstellbare Taktrate der GPU niedriger als nötig gesetzt. Weitere Beschränkungen können beispielsweise die Spannung der GPU sein. Der wohl häufigste Grund für einen Flash dürfte es also sein die Leistung zu steigern. Ein weiterer wenn auch weniger häufige Grund ist das aufspielen zum Notebook kompatibler Hardware, denn nicht von jedem Subvendor lässt sich die Firmware in jedem Notebook betreiben. So funktioniert eine Karte von MSI nicht ohne neue Firmware in einem Alien. Wo bekomme ich ein vBIOS her? Es gibt mehrere Bezugsquellen. So kann man beispielsweise mit dem Programm GPU-Z das aktuelle vBIOS seiner Grafikkarte in einer Datei speichern und diese dann einem anderen der sie benötigt zur Verfügung stellen. Es gibt auch diverse Internetseiten bei denen man sich ein passendes vBIOS runterladen kann. Meine bevorzugte Quelle ist der in diesem Bereich sehr bekannte svl7. Die meisten mir bekannten gemoddeten vBIOS stammen aus seiner Feder und haben den Ruf besonders stabil und zuverlässig zu sein. Links werde ich hier nicht selber posten. Es soll mir hinterher niemand sagen können, dass ich schuld an einem unpassend geflashten vBIOS sei. Was benötige ich? Ich stelle hier die Möglichkeit dar das vBIOS via USB-Speicherstick mithilfe des Programms nvflash zu flashen. Die benötigte Software nenne und verlinke ich. Zusätzlich wird nur ein Speicherstick benötigt. Wie flashe ich ein vBIOS? Als erstes müssen wir den Speicherstick bootfähig vorbereiten. Hierfür benutzen wir das Programm HPUSBDisk und den entpackten Ordner win98boot. Nach dem Starten des Programms müsst ihr sicherstellen, dass der Stick im Format FAT32 unter Einbindung des eben genannten Ordner formatiert wird. Nachdem der Stick so präpariert wurde kopieren wir den Inhalt des Ordners nvflash_5.136.zip und das gewünschte vBIOS in Form der ROM-Datei auf den Stick. Anschließend erstellen wir noch eine Textdatei mit dem Namen autoexec.bat mit dem Inhalt nvflash -6 DATEINAME DATEINAME dabei natürlich durch den Namen eures vBIOS ROMs ersetzen. Dank der autoexec.bat brauchen wir später keine Programme im DOS manuell starten und somit auch keine Sonderzeichen suchen. Nicht vergessen noch flott das aktuelle vBIOS zu sichern. Dies kann beispielsweise mit GPU-Z geschehen. Die Sicherung sollte auf einem zweiten Rechner gespeichert werden um im seltenen Falle eines Fehlflashs den Stick anpassen zu können. Jetzt starten wir den Laptop mit eingestecktem Stick neu. Hierbei drücken wir an geeigneter Stelle F2 um ins BIOS zu gelangen. Dort wird die Bootorder so eingestellt, dass der Stick an erster Stelle steht. Alternativ kann natürlich auch der Stick im Bootmenü ausgewählt werden. Wenn allerdings etwas daneben geht beim Flashen ist ein Blindflash einfacher, wenn man nicht ohne etwas sehen zu können im Bootmenü rumkramen muss. Wenn alles läuft wie geplant solltet ihr nur noch mit y (bzw z) den Flashvorgang bestätigen müssen. Eventuell wird eine Warnung angezeigt. Dies ist bei gemoddeten vBIOS zu erwarten und kann mit y (bzw z) bestätigt werden. Wenige Sekunden danach wird der Flashvorgang beendet sein. Dies erkennt ihr dadurch, dass euch ein Prompt (C:\>) angezeigt wird. Ihr könnt euer Laptop nun mit neuem vBIOS neustarten. Welche Folgen hat das Flashen? Neben den gewünschten Effekten gibt es noch die ungewünschte Folge, dass eure Garantie dadurch ein Ende findet. Sagt dem Telefonmenschen im Falle eines Supportfalles also lieber nichts von diesem Vorgang.
  15. Nach dem ich alles löschen und formatiert hatte ,ging komplett das Licht aus. Also der Alienkopf , der Schriftzug und auch die Tastaturbeleuchtung ist aus. Alle versuche bis lang ohne Erfolg,hat jemand noch eine ath Datei rumliegen die passen könnte? habe ein Alienware M17X ich weiß ist schon etwas älter.
  16. Das Thema DSR wird immer mal - unter anderem von mir - in einigen Posts erwähnt. Es gibt hierzu im Forum aber noch keine Anleitung und ich finde, dass das Thema hier zu kurz kommt, gerade da viele eine 2080 oder stärker haben, jedoch nur ein 1920x1080px-Display. Deswegen diese Anleitung, auf die ich dann zukünftig bei Bedarf verlinken kann. Mittels DSR von Nvidia ist es möglich, Spiele in 2560x1440px oder 3840x2160px (oder auch anderen Auflösungen) zu spielen, obwohl das interne Display z.B. nur 1920x1080px unterstützt. Sobald ihr DSR aktiviert habt, könnt ihr diese Auflösungen in Spielen auswählen, so als hättet ihr ein Display, welches höhere Auflösungen unterstützt. Wie geht das? Nvidia Systemsteuerung öffnen „3D-Einstellungen verwalten“ ihr seid nun im Reiter "Globale Einstellungen". Dort wählt ihr bei „DSR-Faktoren“ 1,78x (2560x1440px), 2,25x (2880x1620px) sowie 4,00x (3840x2160px). Die anderen sind eigentlich uninteressant Darunter erscheint nun „DSR-Glättung“ welches auf 33% steht. Das sieht aber zu verwaschen aus. Wählt 20% aus. Dies ist vorallem für 2560x1440px wichtig, da es sonst zu grieselig ist. Bei 3840x2160px könntet ihr sogar 0% Smoothness nutzen, was dann am besten aussähe. Ihr könnt diesen Wert aber nicht für jeden Faktor konfigurieren, sondern nur global. Insofern sind 20% wegen 2560x1440px und auch 2880x1620px die beste Wahl Das wars. Jetzt könnt ihr euer Spiel starten und in den Spiel-Einstellungen taucht nun auch 2560x1440px, 2880x1620px und 3840x2160px auf. Einfach auswählen und das höhere Rendering genießen. Euer 1920x1080px Display bleibt natürlich technisch stets ein solches Display, die gerenderte Auflösung steigt jedoch, dies beschert euch einen Optik-Vorteil. Noch besser wäre es natürlich, wenn euer Display auch nativ die höhere Auflösung beherrschen würde (dann wäre es noch schärfer). Aber es lohnt sich trotzdem. Allgemeine Empfehlung: Wenn ihr grundsätzlich über genügend Leistung verfügt, und ihr nicht so viele fps braucht, wählt im Spiel 3840x2160px. Sofern ihr (neben 1920x1080px) nur diese Auflösung nutzt, könnt ihr wie oben schon angedeutet den Smoothness-Wert auf 0% stellen. Solltet ihr auch andere (Zwischen-)Auflösungen nutzen wollen, was sehr wahrscheinlich ist, so wählt wie gesagt 20% aus. Sofern ihr ein Laptop mit HDMI 2.0 (also keine Nvidia 30XX) habt und einen 120Hz-TV benutzt: Dadurch dass der TV kein DisplayPort 1.4 hat und euer HDMI Ausgang am Laptop nur HDMI 2.0 hat, könnt ihr 120 Hz nur bis 2560x1440px haben. Bei höheren Auflösungen seid ihr auf 60 Hz beschränkt. In diesem Fall empfehle ich keine höhere Auflösung als 2560x1440px zu nutzen, es sei denn euch macht 60 Hz und V-Sync nichts aus. Denn sonst kommt keine richtige Freude auf (meiner Ansicht nach), auch mit G-Sync nicht. In dem Fall aktiviert nur den Faktor 1,78x. 2560x1440px sind aber immerhin auch schon die 1,78 Fache Auflösung gegenüber 1920x1080... Sofern ihr ein Laptop mit HDM 2.1 habt und einen 120Hz-TV benutzt: Statt Faktor 1,78x (2560x1440px) könnt ihr nun auch 2880x1620px (Faktor 2,25x) benutzen und ihr habt trotzdem noch 120 Hz. Die Auflösung ist etwas höher und somit noch schärfer. Zudem lässt sie sich für das Display mathematisch gesehen besser umrechnen, was zu einer noch besseren Schärfe führt. Grundsätzlich sind die Faktoren 2,25x und 4,00x am besten, sie benötigen die wenigsten Filter. Gerade aber TVs beherrschen Upscaling sehr gut, hier werdet ihr zwischen 2560x1440px und 2880x1620px nur sehr wenige Unterschiede sehen. Bedenkt jedoch, dass die höhere Auflösung mehr Leistung benötigt. Sofern ihr ein Laptop (egal ob HDMI 2.0 oder HDMI 2.1) habt und einen 120 Hz oder höher Monitor benutzt: Hier gilt das Gleiche. Neben 2560x1440px könnt ihr dank DisplayPort 1.4 (schließt den Monitor also per Display Port an) auch 2880x1620px oder höher nutzen, ohne auf 60 Hz beschränkt zu sein. Sobald ihr eben einen 120Hz-TV benutzt, egal ob ihr auch schon einen externen Monitor nutzt oder nicht, muss klar sein, dass der TV kein Display-Port hat. Ein Laptop mit HDMI 2.0 (alle bis RTX 2080) macht dann nur Spaß (120 Hz!) am TV mit maximal 2560x1440px. (Beim 120 Hz-TV setze ich natürlich jetzt mal voraus, dass dieser bereits einen HDMI 2.1 Eingang hat, z.B. LG C9). Dann noch ein Hinweis: Egal ob ihr mit eurem internen Display spielt, oder mit dem Monitor (oder mit dem TV), nutzt immer die gleiche Auflösung. Sofern jedes Display die genutzte Einstellung/Auflösung unterstützt, bleibt diese erhalten. Sprich ihr müsst nur einmal die richtige Auflösung im Spiel auswählen, und schon bleibt sie für immer eingespeichert, egal mit welchem Display ihr spielt. -> das ist normalerweise nicht der Fall! Oder zumindest nicht bei jedem Spiel. Beispiel: Ihr zockt ein Spiel mit 1920x1080px an eurem Alienware-Display, also das vom Laptop. Dann schließt ihr ein Monitor oder TV an. Dort ist dann natürlich 1920x1080px auch ausgewählt. So wollt ihr wahrscheinlich an eurem 2560x1440px- oder 3840x2160px-Monitor (oder TV) aber nicht spielen, also erhöht ihr manuell in den Spiel-Einstellungen die Auflösung. Was passiert beim nächsten mal wenn ihr wieder am Alienware spielt? Richtig, dort wird dann wieder 1920x1080 gesetzt (weil eine höhere Auflösung vom internen Display ja nicht unterstützt wird) und beim nächsten mal Spielen am Monitor/TV müsst ihr die höhere Auflösung wieder manuell auswählen… nervig ohne Ende. Hier hilft euch DSR nun ungemein. Ihr spielt nun auch einfach am Alienware-Display bzw. eben überall mit 2560x1440px, 2880x1620px oder 3840x2160px, fertig. Welche Vorteile hat das Ganze also zusammengefasst? Optik: die Spiele sehen besser aus, für eine 2080 bietet sich in vielen Spielen 2560x1440px oder 2880x1620px an, damit hat man dann noch oft mindestens 60 fps. 3840x2160px solltet ihr nur in älteren oder nicht anfordernden Titeln auswählen, es sei denn ihr habt eine 3080 mit 150+ Watt oder unter 60 fps macht euch nichts aus (mir schon) Komfort: das Spiel merkt sich dauerhaft diese Auflösung. Wenn ihr wie schon gesagt ab und zu am internen Display spielt, und dann wieder am Monitor oder TV, müsst ihr bei vielen Spielen ständig wieder zwischen den verschiedenen Auflösungen wechseln (sofern ihr am Monitor oder TV eine höhere Auflösung verwenden wollt). Wenn ihr aber DSR aktiv habt, und bei allen Displays die gleiche Auflösung verwendet, bleibt diese dauerhaft eingespeichert und euch der ständige Wechsel der Auflösung in den Spiel-Settings erspart) Ihr könnt übrigens DSR aktiv haben, und wenn ihr den Monitor (oder TV) angeschlossen habt, nicht. Sprich die Nvidia Systemsteuerung unterscheidet hier je nach Display. Ihr könnt DSR natürlich auch dafür benutzen, um eurem schon höher aufgelösten 2560x1440px-Monitor 5120x2880px oder eurem 3840x2160px-Monitor 7680x4320px beizubringen… das kostet dann aber richtig Leistung... Welche Nachteile hat das Ganze? Ihr braucht natürlich mehr Leistung, habt also weniger fps. DSR verhält sich leistungstechnisch fast exakt genau so, wie als wenn ihr nativ eine höhere Auflösung hättet. Bei Spielen, die ihr konstant mit über 100 (oder 200) fps spielen wollt, z.B. Shooter wie CoD Modern Warfare oder Coldwar, empfiehlt es sich weiterhin die 1920x1080px-Auflösung zu nutzen (es sei denn ihr habt eine 3080 mit 150+ Watt, dann geht dort evtl. auch 2560x1440px). Aber für viele Spiele, die ihr z.B. in Third-Person mit Controller spielt, sind - zumindest nach meinem Geschmack - ca. 60-90 fps und 2560x1440px, 2880x1620px oder 3840x2160px die deutlich bessere Wahl als ca. 120 fps bei 1920x1080px. PS: Ich habe in dieser Anleitung bewusst keine Wörter wie QHD, 1440p, UHD, 4k usw. benutzt, weil manchen nicht jedes bekannt sein dürfte. Mit der stets ausgeschriebenen Auflösung, z.B. 2560x1440px, kann aber jeder was anfangen.
  17. Hallo Forenmitglieder, ich bin seit Freitag stolzer Besitzer eines Area 51m Laptops. Um meinen kleinen Arbeitsplatz (mein Arbeitszimmer ist nun ein Kinderzimmer) abzurunden, habe ich mir zu meinem Laptop von DELL eine Dockingstation Modell WD19 (130W) bestellt. Warum diese Dock: Vor allem wegen der Möglichkeit, ein Laptop das über USB-C angeschlossen ist über den Powerbutton zu starten, auch wenn das Notebook zugeklappt ist. Aber genau da liegt der Haken. Ich habe alles entsprechend der empfohlenen Vorgaben angeschlossen (bin in der IT tätig, also nicht ganz unbedarft) aber bei Herunterfahren des Laptops und drücken des Powerbuttons an der Dock tut sich mal... gar nix. Habe danach nach den USB-C Treibern für mein Area 51m geschaut und neu installiert, aber der Effekt bleibt der gleiche. Habe im BIOS auch Wake-On-USB aktiviert, aber auch das hat leider nichts gebracht. Habe nach einem Firmware-Update für die Dockingstation bei DELL gesucht, aber außer einem Audio-Treiber von Realtek wurde mir nichts weiteres angeboten. Aber vielleicht bin ich auch einfach zu blind? By the Way: Das BIOS / UEFI sieht ja ziemlich altbacken aus. Da es mein erstes AW-Gerät ist: Ist das normal? Sollte ich die Suchfunktion via google oder auch hier im Forum nicht richtig bedient haben: Entschuldigt bitte und gerne darauf hinweisen das es einen solchen Thread schon gibt. Kurze Fakten: BIOS-Firmware: 1.7.3 CPU: i7 8700 (8. Gen) RAM: 16GB SSD: 512GB HDD: 1TB GraKa: RTX 2700 OS: Windows 10, Build 1809 Für Eure Hilfe lieben Dank, Michael
  18. Hallo zusammen. Auf Nachfrage erstelle ich nochmal eine kurze Anleitung wie man seine Grafikkarte richtig einstellt, wenn man sich entschlossen hat ein unlocked vBios zu flashen. Ich werde das alles am Beispiel meiner 980m's erklären. Die Werte, die ich einstelle, sind nicht gemeingültig und funktionieren nicht bei allen Karten gleich. Wichtig: Ich übernehme (wie immer) keine Haftung. Das soll nur ein Leitfaden sein. Wenn man sich mit dem Thema unlocked vBios und OC beschäftigt muss einem auch klar sein, dass man damit ein gewisses Risiko eingeht. Das unlocked vBios: Dazu wie man überhaupt ein vBios auf seine Karte bekommt verweise ich auf meinen Thread den ich vor ein paar Tagen erstellt habe. Bei einem unlocked vBios sind (wie der Name schon vermuten lässt) die Grenzen freigeschaltet. Das betrifft Spannung, Takt, Speicher-Takt, Leistungsaufnahme und Temperaturlimit. Außerdem kann es sein, dass ein unlocked vBios standardmäßig einen anderen Takt bei einer anderen Spannung anlegt als mit den normalen vBios. Daher kann es dazu kommen, dass die Karte garnicht von Anfang an lauffähig ist, bzw. unter Last crashed. Um diese Einstellungen soll es in diesem Thread gehen. Was brauche ich dafür? Software Nvidia Inspector Windows Aufgabenplanung Furmark Ich erkläre hier am Beispiel des Nvidia Inspectors. Das ist die Oberfläche die ihr (so oder so ähnlich) seht, wenn ihr ein unlocked vBios geflashed habt. Eine 980m taktet normal mit 1128MHz. Bei Default Clock steht hier 1202MHz. Das ist die Übertaktung, die das vBios mitbringt. Um also ein Profil ohne Übertaktung zu haben musste ich um 75MHz nach unten korrigieren (gelb markiert). Auch das Powerlimit habe ich angehoben, damit die Karte nicht mehr drosselt. Gleichzeitig läuft die Karte im P0 (also höchster Power-State) bei dem vBios nur mit 1,000V was für meine Karten ebenfalls zuwenig ist. Ich musste um 0,025V erhöhen. Mit diesen Einstellung habe ich einen stabiles System. Wie finde ich die richtigen Einstellungen? Mithilfe des Furmark-Stresstests kann man sein Karte auslasten. Wenn man noch garnicht weiß wie sich die Karte verhält, testet man den Standardtakt der Karte. Den findet man ganz gut bei Notebookcheck heraus. Friert der Bildschirm ein oder stürzt der Rechner ab erhöht man die Spannung um 12,5mV (kleinster Schritt) und testet erneut. Diesen Vorgang wiederholt man so lange bis man die richtige Spannung gefunden hat und das System stabil läuft. Kommt man irgendwann bei 100mV mehr an und es läuft immer noch nichts wie es soll, dann ist noch was anderes nicht richtig (Treiber oder so). Wenn die Einstellungen im Furmark funktionieren heißt es jedoch nicht, dass sie überall funktionieren. Also testet man am besten mit einem grafisch anspruchsvollen Spiel und das über eine lange Zeit. Alternativ kann man auch den Stabilitätstest von 3D-Mark dafür nutzen. Wie übertakte ich? Das kann man in einem Wort zusammenfassen: LANGSAM Beim übertakten tastet man sich vorsichtig höher. Sprich man erhöht den Takt vorsichtig (ich mache maximal 10MHz Schritte) und erhöht dann die Spannung bis das System wieder stabil ist. Dann folgt der Langzeittest. Wenn das System weiter stabil bleibt und die Temperaturen noch niedrig sind kann man noch weiter erhöhen. Ich persönlich habe meine Wohlfühltemperatur der GPU's bei max. 80°C. Mehr möchte ich nicht haben. Ist aber jedem seine Sache. Kann ich Profile anlegen? Ja, man kann sich Profile erstellen. Dafür eignet sich der Nvidia Inspector recht gut, da man die Anwendung einfach mit anderen Attributen aufrufen kann. In meinem Fall habe ich eine Windows Aufgabe erstellt, die beim Systemstart den Nvidia Inspector öffnet und zwar mit folgenden Attributen: -setBaseClockOffset:0,0,-75 -setMemoryClockOffset:0,0,0 -setVoltageOffset:0,0,25000 -setPowerTarget:0,130 -setTempTarget:0,1,90 -setBaseClockOffset:1,0,-75 -setMemoryClockOffset:1,0,0 -setVoltageOffset:1,0,50000 -setPowerTarget:1,130 -setTempTarget:1,1,90 "-" Leitet ein neues Attribut ein. "set...." Ist der Wert den man setzen möchte "x,y,z" Die erste Ziffer steht für die Karte (bei nicht SLI-Systemen also immer 0). "x,y,z" Die zweite Ziffer steht steht für einen gesetzten Haken. In meinem Fall also nur bei Priorize Temperature 1, ansonsten 0. "x,y,z" Der dritte Wert ist der Wert den ihr einstellen wollt. Der Reihenfolge nach also in: MHz (Offset), MHz (Offset), mV (Offset), % (Absolut), °C (Absolut) Mit Hilfe der Windows Aufgabenplanung werden meine Karten stabil und ohne OC eingestellt und zwar bei jedem Systemstart ohne dass ich das bemerke. Um die Karte jetzt aktiv hochzutakten habe ich mit Makrotasten im AW-CC angelegt. Nach dem gleichen Prinzip wie in der Aufgabenplanung nur mit straffer abgestimmten Werten. Ich hoffe meine kleine Anleitung kann dem einen oder anderen helfen. @bluedragon Ich hoffe du kommst mit dieser Anleitung etwas weiter. Falls du noch fragen hast bitte gleich mit HWiNFO Log hier dazu schreiben. Dann können auch andere davon profitieren.
  19. Hi zusammen, ich wechsle bald in eine neue Firma und darf mir da natürlich ein neues Arbeitsgerät aussuchen. Aktuell kenne ich den Rahmen noch nicht, daher würde ich den auch erstmal offen halten. Was könnt ihr empfehlen? Ich bin für alle Vorschläge offen. Das ich nur mit Microsoft Technologien arbeite sollte es definitiv auch ein Windows 10 Notebook sein. Folgende Modelle habe ich im Kopf: - Dell XPS 15 - Dell XPS 17 - Surface Book 3 Danke für eure Tipps
  20. In der Vergangenheit kam es regelmäßig vor, dass Fragen mit irgendwelchen Temperatur- oder Taktwerten gestellt wurden. Um auf die Fragen gezielt eingehen zu können und überhaupt das ganze irgendwie sinnvoll zu bewerten, bedarf es oft weiterer Informationen. Ein dafür äußerst hilfreiches Tool ist HWinfo64. Damit lässt sich fast alles überwachen und das meiste bequem einstellen. Aus meiner Sicht ein Must-Have Tool, was auf keinem Rechner fehlen darf. Die Vergangenheit hat auch gezeigt, dass einige User mit dem Umgang Probleme haben oder bestimmte Werte falsch interpretiert werden. Deshalb wurde es schon lange Zeit für den HWinfo-Thread. 1. Installation Nicht selten kam die Frage auf: "Was muss ich auswählen?/ Welche Version muss ich nehmen?". Daher nehme diesen Punkt jetzt mal mit auf. Die Software lässt sich kostenlos auf der HWinfo-Homepage, im Download-Bereich runterladen. Die Version, die ich dafür immer nehme, ist Local (U.S.). Zur Installation gibt es nicht viel zu sagen. Ist halt eine Standard-Installation, wo man eigentlich nichts falsch machen kann. 2. Ansicht-Modus, Layout und Einstellungen Anfangs können einem die vielen Ansichtsmöglichkeiten, Einstellungen und Werte erschlagen und man weiß gar nicht wo anfangen soll. Gerade wenn sich das Layout im "Sensors only" noch in der Default-Ansicht befindet und einfach alles angezeigt wird. Ich gehe auf jede Ansicht kurz ein und nenne einige Gründe, wann welche Ansicht zu empfehlen ist. 2.1 Ansicht "all" Sobald man HWinfo installiert hat und es startet, fragt das Tool in welcher Ansicht man sich die Daten anzeigen lassen will. Wählt man gar nichts aus bzw. schränkt nichts ein, sprich keinen Haken bei Summary only und Sensors only, wird eine erweiterte Summary-Ansicht angezeigt. Das ganze sieht dann so aus: Man hat verschiedene Fenster, wo sich verschiedene Informationen ablesen lassen. Gerade die linke Anzeige kann sehr hilfreich sein, wenn man beispielsweise wissen möchte, welches Display man verbaut hat (sehr beliebte Frage bei Area51m) oder Detailinformationen über den RAM. 2.2 Ansicht "Summary only" Diese Ansicht ist eine Zusammenfassung (engl. Summary) aller wichtigen Daten. Bedeutet, welche CPU, GPU, welcher RAM, welche Festplatten-Konfig usw. ist verbaut + ein kleines Fenster, was die CPU so treibt. Ein beliebtes Beispiel, wo die angezeigten Informationen falsch interpretiert werden, ist der Arbeitsspeicher. Die Ansicht zeigt hier zwei Werte: Punkt 1 bezieht sich dabei nur auf den RAM und welche Profile auf seinem SPD-Chip hinterlegt sind. Das hat erstmal rein gar nichts damit zu tun, wie der Speicher im Notebook arbeitet. Man kann es mit den m.2 SSDs vergleichen. Nur weil 500 GB angezeigt werden, heißt es nicht, dass auch 500GB belegt sind. Genau dafür gibt es Punkt 2. Hier wird angezeigt, wie der eingesetzte RAM im Notebook arbeitet und welches Profil angelegt ist. In meinem Fall taktet der RAM auf 2.666 MHz mit den entsprechenden Timings. Der Takt wird oft als "Hälfte (1.333)" angezeigt und muss mal zwei multipliziert werden. Der Grund dafür ist, dass ein DDR = Double Data Rate Speicher zwei Signale pro Taktzyklus anlegt. Im Area51m, wo der RAM maximal auf 2.400 MHz läuft, steht dann dementsprechend der Taktwert auf 1.200 Mhz. 2.3 Ansicht "Sensors only" Hierbei handelt es sich über detaillierte Ansicht aller Sensoren und Werte mit Zeitangabe. Aus meiner Sicht, ist das die wichtigste Ansicht, da sich hier viele Rückschlüsse ziehen und Fehler, hohe Temperaturen, Leistung usw. gut bewerten lassen. Um diese Ansicht zu starten, einfach auf "Sensors only" klicken und Run. Anfangs im Standard-Layout bekommt man eine unübersichtliche Vielzahl an Informationen angezeigt. In der Regel braucht man nie derart viele Informationen. Glücklicherweise bietet HWinfo die Möglichkeit das Layout nach seinen Wünschen zu gestalten. Für die Temperatur- und Leistungsbewertung habe ich mein Layout wie folgt angepasst: Damit die Ansicht am Ende so aussieht, kann man mit Rechtsklick --> Kontextmenü --> "Hide" viele Werte ausblenden, die man nicht braucht. Mit "Rename" kann man die Werte umbenennen. Je nach Model, werden die Lüfter mal angezeigt und mal nicht. Werden die Lüfter nicht angezeigt, hat man die Möglichkeit über die Settings, zweiter Reiter Safety, durch das Deaktivieren des EC Supports, dass die Lüfter angezeigt werden. Soweit mir bekannt, ist das nur beim Area51m so. Beim AW17 R4/ R5 werden die Lüfter von Anfang an erkannt und tauchen auch in der Ansicht auf. Beim m15 & m17 R1 habe ich es nicht geschafft, dass mir die Lüfter angezeigt werden. Das liegt höchstwahrscheinlich daran, dass speziell Notebook-Mainboards "nicht bekannte" Controller einsetzen und HWinfo keine Informationen darüber bekommt oder diese nicht richtig interpretieren/ auslesen kann. Manchmal hilft ein Ausprobieren mit verschiedenen Einstellungen. Wo die Lüfter ebenfalls nicht anzeigt werden, ist wenn man HWinfo startet, die Lüfter aber still stehen (0 rpm). Sobald die Lüfter anlaufen wird ein Signal (rpm) ausgegeben und HWinfo führt sie dann in der Liste auf. Das kommt oft vor, wenn man sein Notebook im idle mit einem Kühler betreibt. 3. Verstehen Leistungsangaben und Temperaturwerte stehen unmittelbar mit anderen Faktoren im Verhältnis. Möchte man beispielsweise Temperaturen bewerten, so sind andere Werte ebenso zu berücksichtigen. Deshalb sind Antworten auf allgemeine Fragen wie "...sind die Temperaturen in Ordnung?" ohne Angabe weiterer Faktoren, die damit zusammenhängen, höchstens eine gutgemeinte Schätzung. Wenn man sein Layout mit "hide" und "rename" angepasst hat, sind folgende Werte mindestens zu empfehlen: 3.1 Verstehen der Werte Ganz oben in der Leiste finden sich verschiedene Angaben zur Zeiterfassung: Current: Aktueller Wert Minimum: Kleinster Wert in der gemessen Zeit Maximum: Höchster Wert in der gemessen Zeit Average: Durchschnittlicher Wert in der gemessen Zeit Punkt 1: Clock-Ratio Hierbei handelt es sich um den Multiplikator (kurz Multi), der zusammen mit dem Bus-Takt (üblicherweise 100 MHz FSB) den Kern-Takt ergibt. In dem Beispiel ist Multi 46x mal 100 MHz = 4.600 MHz/ 4,6 GHz. Durch die kleinen Zahlen ist dieser Wert schnell und einfach abgelesen. Punkt 2: Kern-Temperaturen Der Punkt sollte wohl selbsterklärend sein. Punkt 3: Voltage-Offset Dieser Punkt ist wichtig, um sein Undervolting zu überwachen. Gerne werden diese beiden Werte verallgemeinert oder gleichgesetzt, jedoch ist das nicht richtig. Wenn man beispielsweise mit ThrottleStop undervoltet, bezieht sich IA Voltage Offset im TS auf CPU Core UV und CLR Voltage Offset auf CPU Cache UV. Beim Undervolting sollten CPU Core und CPU Cache immer gleich hoch undervoltet werden, da in dem Fall immer nur der geringste Wert tatsächlich von der CPU angenommen wird. Undervoltet man beispielsweise CPU Core mit -150mV und CPU Cache mit -100mV, wird für die CPU insgesamt nur die -100mV übernommen. Punkt 4: CPU Package Power Ein besonders wichtiger Wert wenn man Leistung und Temperaturen bewerten möchte, wenn nicht sogar mit der wichtigste überhaupt. CPU Package Power zeigt an, was tatsächlich an Strom/ Leistung durch die CPU gegangen ist. Dieser Wert ist auch bekannt als TDP Leistung einer CPU. Zum Thema TDP werde ich mich hier jetzt nicht allzu detailliert äußern. Nur so viel: Die CPU ist mit 45w TDP Leistung spezifiziert und hätte ich die CPU nach Intel's Mess-Spezifikation mit Basistakt 2,9 GHz und 100%iger CPU-Auslastung betrieben, wäre ich auch irgendwo bei 45w gelandet. Da ich die CPU aber außerhalb der Intel-Spezifikation betreibe, ist es nicht überraschend, dass die Leistungsaufnahme bis sogar 95,913w im max hochging. Je nach Benchmark und Spiel wird die CPU verschiedenen hoch ausgelastet. Dadurch ergeben sich logischerweise auch andere CPU-Power Werte. Fließt weniger Strom durch die CPU, läuft sie natürlich kühler. Möchte man seine Temperaturen vergleichen, ist dieser Wert absolut wichtig zu beachten. Denn nur, wenn die gleiche Leistung generiert wurde, kann man überhaupt verschiedene Logs miteinander vergleichen. Zu einem Beispiel komm ich im Punkt 3.2. Punk 5: PCH und RAM Temperaturwerte des PCH und RAM. Sollte eigentlich auch selbsterklärend sein. Interessant wird dieser Punkt, wenn man beispielsweise einen PCH-Mod verbaut oder das System Freezes zeigt, welches sich auf zu hohe PCH-Temps zurückführen lässt. Der m15 R1, flach auf dem Tisch, im Out of the box Zustand ist da so ein Kandidat. Punkt 6: Lüfter Auch dieser Punkt sollte selbsterklärend sein. Jedoch ist er wichtig, wenn man Temperaturen vergleichen oder bewerten möchte. Drehen die Lüfter weniger, wird auch weniger Luft umgesetzt, was die Kühlleistung vermindert. Das sich die Lautstärke der Lüfter mit steigender RPM-Drehzahl erhöht, muss nicht extra erwähnt werden. Das sind alles so Faktoren, die bei der Bewertung wichtig sind. Punkt 7: SSD & HDD Sollte ebenfalls selbsterklärend sein. Auch diese Werte können unter bestimmten Voraussetzungen interessant und wichtig sein. Beispielsweise wenn man einen SSD-Kühler oder/ und zusätzlich einen externen Notebook-Kühler einsetzt. Natürlich auch wenn man die Festplatten mit großen Kopier-/ Schreibaufgaben belastet. Punkt 8: GPU Bei der Grafikkarte sollten die meisten Werte auch eigentlich klar sein. Anmerken muss ich hier ebenfalls den Punkt mit der Leistung und dem Strom (GPU Power). Auch das ist ähnlich zu vergleichen wie mit der CPU Package Power. Wird mehr Leistung gefordert, fließt auch mehr Strom, was logischerweise zur Temperaturerhöhung führt. Gerade wenn man eine "Shared-Heatsink-Konstruktion" hat, beeinflusst die Temperatur des einen Chips auch immer den anderen. Je nach Model, fällt das mal höher oder geringer aus. Punkt 9: Listenanzeige Mit diesem Button kann man sich die Listenanzeige auf mehrere Seiten ziehen. Ich wollte es mal erwähnen, bevor die Frage wieder auftaucht wie man die Liste auf mehrere Seiten bekommt. Punkt 10: Zeit Anzeige der gemessenen Zeit. Dieser Punkt ist besonders wichtig für das Loggen, dazu aber mehr im Punkt 3.2. Punkt 11: Reset-Button Eine Funktion zum resetten aller Werte. Zusammen mit dem Punkt 10 und dem Loggen eine wichtige Funktion. Zusätzliches: Noch einige Punkte, die hier jetzt nicht aufgelistet sind. Powerlimit 1 & 2: Die PL's tauchen normalerweise unter Punkt 4 auf. Es kann aber durch vorkommen, dass der Punkt hin und wieder verschwindet, so wie in meinem Chart halt. Die PL's begrenzen die Maximal-Leistung, die sich die CPU genehmigen darf. Je nach Lüfterprofil und Temperatur ändern sich die Limits. Meist ist das Setting so ausgelegt, dass mit erhöhter Lüfterdrehzahl auch die Powerlimits angehoben werden. Sprich, mit mehr Kühlleistung, darf sich die CPU auch mehr Leistung erlauben. Läuft man ins Thermal Throttling (Thermale Grenze 100°C), kann es vorkommen, dass die PL dynamisch angepasst und abgesenkt werden. Powerlimit 1 bezieht sich dabei auf das "Long Term Power Boost Window". Also das, was sich die CPU theoretisch die ganze Zeit gönnen darf, sofern sich nicht zu heiß wird. Powerlimit 2 bezieht sich dabei auf das "Short Term Power Boost Window". Also das, was sich die CPU im Boost genehmigen darf. Als Beispiel: Beim m15 R1 ist der Short Boost auf 30 Sekunden begrenzt und der Höchsttakt auf 4,8 GHz. Unter dem höchsten Lüfterprofil (Lüfter 100%), wird das Powerlimit auf PL1-78w/ PL2-90w angehoben. Wobei die All-Core Leistung mit 4,2 GHz sich ausschließlich nur auf PL1 dann bezieht. Distance to TjMax: Ein Punkt, der hin und wieder mal gefragt wird, ist TjMax. TjMax steht dabei für "Distance to Maximum Junction Temperature" (Wikipedia). Es gibt verschiedene Interpretationen wie dieser Wert verstanden oder gemessen wird. Es hängt zum einen von der eingesetzten Software ab und zum anderen auch ob CPU oder GPU gemeint ist. Da gibt's verschiedene Ansichtsweisen. Vereinfacht gesagt, HWinfo zeigt euch mit diesem Wert an, wie viel Luft (Headroom) noch im Temperaturbereich ist, bevor gedrosselt wird. Standardmäßig drosseln die CPUs bei 100°C. Jetzt im Beispiel oben hatte ich auf Core #0 beim Spielen 69°C im Durchschnitt. Distance to TjMax ist somit 31°C. Addiert man beide Werte zusammen, kommt man wieder auf 100°C. Bedeutet also soviel wie, dass ich theoretisch noch ein bisschen die Leistung aufdrehen könnte. Diese Anzeige kann schon praktisch sein, wenn man wissen möchte wie viel Spielraum man mit einem Setting bei Spiel A und wie viel bei Spiel B hat. Da verschiedene Spiele das System unterschiedlich stark belasten. Fehler-/ Warnmeldungen Ich werde hier jetzt nur die wichtigsten ansprechen, da der Beitrag ansonsten explodiert und ich bis morgen hier dran sitze. Der Begriff: "PROCHOT" steht für Processor Hot und taucht meist zusammen mit Thermal Limit auf, was bei den Notebooks meist bei 90-100°C erfolgt, je nach dem welches Limit gesetzt ist. Im Desktop-Bereich kann man thermale Grenzen meist selbst ein einem gewissen Rahmen bestimmten. Daher können zwei, auf den ersten Blick, gleiche Meldung sinnvoll erscheinen, da eine Meldung sich auf die Spezifikation der CPU bezieht und die andere auf das Mainboard-Setting. Der Begriff "Powerlimit exceeded" wird auch immer wieder mal gefragt. Diese Meldung tritt auf, wenn man an oder über sein Powerlimit kommt. Beispiel: Angenommen mein Notebook hat im Lüfterprofil "Silent" ein Powerlimit von PL1-45w/ PL2-60w. Mit ThrottleStop übertakte ich die CPU leicht und starte einen Cinebench. Die CPU gibt Vollgas und zieht so viel Strom, dass sie problemlos über die Powerlimits 45w/ 60w kommt. Das Mainboard, genauer gesagt der Voltage-Controller, der durch das BIOS, aufgrund des Lüfterprofils, die Powerlimits beschränkt, drosselt die Stromzufuhr. Kurz gesagt, erreichen der Powerlimits = Powelimit exceeded. Die CPU wird gezwungen sich runterzutakten, damit sie mit dem begrenzten Strombedarf wieder klar kommt. 3.2 Verstehen der Zusammenhänge In diesem Punkt führe ich verschiedene Beispiele auf, wie die Daten in Beziehung stehen und auf was zu achten ist, wenn man die richtigen Rückschlüsse ziehen will. Um die CPU-Temperaturen bewerten zu können braucht man mindestens drei Kriterien: CPU Package Power Lüfterdrehzahl Zeit Ist einer dieser Faktoren unbekannt, kann man keine logischen Rückschlüsse auf die Kühlleistung schließen. Man kann höchstens versuchen irgendwas zu schätzen, aber das war's auch schon. Natürlich sind noch andere Parameter wichtig, um eine Vergleichbarkeit bzw. genauere Bewertbarkeit zu schaffen, aber die drei oben genannten sind auch meiner Sicht die wichtigsten. Andere wichtige Faktoren sind: Log Start & Log Ende durchschnittlich gehaltener Takt Außentemperatur Undervolting Wärmeleitmittel Modding & externe Kühler Powerlimits Je nach dem was oder wie man bewerten möchte ist auch der Start- und Endpunkt des Logs enorm wichtig, weil man sonst mit idle-Werten seine Zahlen verfälscht/ schönt. Dann, zwischen den einzelnen CPUs/ GPUs gibt dann auch noch mal Unterschiede. Sprich, nicht jeder 9900K oder RTX 2080 performt gleich (auf Temps bezogen), jedoch jetzt für das Beispiel, lasse ich mal solche Faktoren außen vor. Zur Verdeutlichung was ich meine, hier mal zwei HWinfo Logs von meinem R5 im Vergleich. Im ersten Beispiel habe ich ca. 45 Minuten FC5 New Dawn gespielt. Der Log beläuft sich jedoch auf ca. 35 Minuten, weil ich immer ca. 10-15 Minuten warm spiele bevor ich den Log anfange. Dazu starte ich HWinfo und das Spiel. Nach der Warmlaufphase wechsel ich kurz auf HWinfo und resette die Werte (Uhr-Symbol). So kann ich sicher sein, dass ich meine eigenen Werte nicht mit Idle-Temps verfälsche. Später gehe ich dann während des Spiels wieder kurz auf HWinfo und mach dann den Screenshot. So bekommt man dann die reinen Ingame-Werte. Ein möglicher Log kann wie folgt aussehen: und jetzt noch mal ein 3 Minuten Log mit 5,3 GHz all Core: Deswegen ist der Takt für Temperatur-Bewertung zunächst erstmal uninteressant, weil Package Power + Kühlung (Lüfter) + Zeit die Temperaturen bestimmen. Deswegen ist Cinebench nicht unbedingt geeignet um Temperaturen zu bewerten. Der Benchmark ist einfach zu kurz und testet den absoluten Worst-Case für die CPU, was mit Gaming-Leistung/ Temperaturen nicht viel zu tun hat. Möchte man seine Werte später mit anderen Geräten vergleichen, sind auch die anderen Parameter interessant, damit man überhaupt eine Vergleichbarkeit schaffen kann. Beispielweise man möchte wissen, ob die Wärmeleitpaste MX-4 besser performt als Kryonaut oder ob sich Undervolting lohnt bzw. wie viel. ------------------------------------------------------------ Schlusswort Insgesamt betrachtet ist das natürlich schon recht viel Info und bei weitem nicht alles, was man so mit HWinfo noch machen kann. Dennoch hoffe ich, dass der Beitrag für den ein oder anderen interessant oder hilfreich war. Wenn ich noch etwas vergessen habe oder nicht richtig erklärt, sagt mir bitte bescheid. Dann ändere ich den Beitrag an der Stelle.
  21. Tach zusammen VR ist ja zur Zeit in aller Munde und das nächste grpße Ding! --> nein Spaß. VR is ne Niche, aber eine ausgesprochen Interessante. Und da AW Geräte ebenso eine Niche sind passt das doch ganz gut. Ich wollte einfach mal einen Erfahrungsthread starten zum Thema VR. Vielleicht ist das ja für den einen oder anderen ganz interessant? Gibts hier im Forum VR Verrückte die schon länger dabei sind (oder neu dabei sind) und mal Bock auf ein paar Spielchen hätten? Den ersten Kontakt mit VR hatte ich letztens bei einem Kumpel und seiner Oculus Quest. Da hab ich SuperHot VR und Beatsaber gespielt. Fand ich ja Mega ^^ also hab ich mir im Black Friday eine Rift S geschossen. Bei 339 Euro kann man das mal testen. Spiele gabs ja im Steamsale und Black Friday Deals reichlich günstig zur Auswahl. in Abstimmung mit meinem besten Kumpel haben wir uns dann ein paar Spiele für Multiplayer geholt und ich mir noch welche für den Singleplayer. SP: Super Hot VR, Asgards Wrath, Thalos Principle MP: Onward, Beatsaber, Serious Sam VR Collection, Sprint Vector, Seeking Dawn An Hardware steht mir mein A51m mit 9900k / RTX2080 und ein AW17R5 mit i98950HK / GTX 1080 zur Verfügung. Da biste doch gut aufgestellt für VR -> dachte ich zumindest. Getestet hab ich die Brille bisher leider nur mit dem 17R5. Hier muss ich bei einigen Spielen schon auf mittlere Grafiksettings runter damit es wirklich flüssig ist O.O Abgesehen davon war es bei mir Plug and Play. Nur den Grafiktreiber musste ich aktualisieren. Von der Rift S bin ich positiv überrascht. Die Bildqualität ist I.O, das Tracking funktioniert wirklich zuverlässig (man muss keine Boxen aufstellen) und das Headset ist auch nach 4h noch bequem. Bei mir machen sich die 8Hz die die Rift s zur Quest hat positiv bemerkbar. Ich habe mit der S spürbar weniger Motion Sickness Alles in allem hab ich für die 339 Euro so viel Spaß am PC wie schon lange nicht mehr. Wie sind eure Erfahrungen so? VR ein Thema oder eher nicht so? Gruß
  22. Dieses Thema ist schon relativ lange bekannt und wird auch schon länger in diversen Forenkreisen diskutiert. In unser Forum hat es Plundervolt, zumindest bis jetzt, noch nicht geschafft, da die daraus resultierenden Nachteile aktuell keine Alienware-Geräte betreffen, jedenfalls noch. Da sich das aber in Zukunft ändern könnte und das zum Teil für uns erhebliche Nachteile hat, wollte ich das Thema zumindest schon mal ansprechen. Was genau ist Plundervolt? Plundervolt bezeichnet eine Sicherheitslücke bei Intel Prozessoren, wodurch es möglich ist Schadcode auszuführen. Die Sicherheitslücke betrifft Intel's Software Guard Extensions, abgekürzt auch SGX genannt. Dieser Punkt befindet sich bei uns im BIOS unter dem Reiter Advanced. Welche Nachteile hat es für mich? Intel und diverse andere Hersteller haben schon reagiert und bieten BIOS-Updates an, die wie üblich, irgendwelche Sicherheitslücken schließen. Das Problem ist dabei, dass man durch so ein Update, die Möglichkeit verliert, irgendwelche Änderungen an der CPU über ThrottleStop oder Intel XTU vorzunehmen. Natürlich auch über's BIOS selbst. Was bedeutet, dass man unter anderem nicht mehr Undervolten oder andere Voltage-/ Core-Settings durchführen kann. Ich kann jetzt nicht sagen, welche Hersteller genau damit schon angefangen haben. Soweit ich weiß, trifft das zumindest schon mal auf HP zu. User mit den Omen Notebooks kotzen sich in Foren (z.B. NBRF) darüber aus, dass die CPU ohne undervolting deutlich heißer läuft (logisch) und es keine Möglichkeit mehr gibt, das Setting mit dem SGX Update anzupassen. Außer man downgraded die BIOS-Versoin, sofern das möglich ist. Mittlerweile finden sich auch immer mehr Beiträge im Alienware-Bereich des NBRF, wo dieser Punkt jedesmal nach einem BIOS Update gefragt wird. -Beispiel- Wenn ich jetzt an meinen R5 und dem i9-8950HK denke, dann wäre so eine Beschränkung ziemlich besch***en für mein System und ich denke, ich spreche da nicht nur für mich alleine. Das BIOS Updates immer mit einer gewissen Vorsicht zu genießen sind, ist an sich nichts neues. Wenn jetzt aber solche Einschränkungen mit den BIOS Updates kommen, würde ich mir ein Update zwei mal überlegen. Deshalb wollte ich schon mal sicherheitshalber drauf hinweisen. Wer sich in das Thema weiter einlesen möchte und detaillierte Informationen sucht, kann sich folgende Links anschauen: Weiterführende Links und Quellen: - Plundervolt.com - ZDnet.com (Plundervolt) - Bob (Youtube) - Intel Software Guard eXtensions (Intel)
  23. Hallo zusammen, seit kurzem habe ich WLAN Problem, heißt nach jedem Neustart kein Internet. Workaround ist ein manuelles Deaktivieren und Aktivieren der WLAN Verbindung, damit WLAN wieder geht. Einen Hardware Defekt habe ich erstmal ausgeschlossen und die naheliegendste Vermutung war ein Software Update vor kurzem. Ja das Windows Update KB4023057 war schuld, nur kann ich es aus dem Updateverlauf nicht manuell deinstallieren. Was für ein Scheiß! Danke Mircrosoft, daß wir schon lange nicht mehr Herr über unser eigenes System sind. Das Problem scheint bekannt zu sein: "So called update KB4023057 kills my internet. How to stop it from ..." Was mich jedoch wundert, das Update kam bei mir am 22.11.2020, der Link mit identischem KB-Code verweist jedoch auf ein Update aus 2018. Neuere Windows Updates fangen für gewöhnlich bereits mit einer KB45xxxxx an. Hat jemand von euch das selbe Problem bzw. eine Idee? Notfalls wäre mal wieder ne Clean Installation fällig. Danke
  24. Hallo liebe Community, wie der Titel schon sagt bin ich auf der Suche nach einem Laptop Marke Alienware, am besten 17 Zoll bzw. M 17? Leider tue ich mich bei der Konfiguration etwas schwer. Zu mir; Ich arbeite ca 8-10 Stunden am Tag vom Laptop aus, bin Webmaster sowie Grafikdesigner (jedoch kein Home-Office, sonst hätte ich mir natürlich nen Tower gegönnt). Nach der Arbeit zocke ich ganz gerne schon mal einige Games, aus diesem Grund möchte ich mir einen Laptop holen den ich für all das gesammelt benutzen kann, statt immer zwei getrennte Plattformen nutzen zu müssen. Der Laptop sollte ebenfalls ausreichend Grafikleistung haben um mit einem Controller verbunden einen 65" Fernseher per HDMI Kabel (1080p) bespielen zu können.. Falls ich da ganz falsch von meinen Vorstellungen liege, bitte belehrt mich! Erstmal vielen lieben Dank! P.S: Ist die 4k Option bei den Monitoren sinnvoll? Denke das das für einige meiner Designaufgaben Sinn machen könnte, gezockt würde ja hauptsächlich über den Fernseher aus..
×
×
  • Neu erstellen...

Wichtige Information

Bitte beachten Sie folgende Informationen: Nutzungsbedingungen, Datenschutzerklärung und Community-Regeln. Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.