Zum Inhalt springen

Community durchsuchen

Zeige Ergebnisse für die Tags "'Alle Modelle (Notebooks)'".

  • Suche nach Tags

    Trenne mehrere Tags mit Kommata voneinander ab.
  • Suche Inhalte eines Autors

Inhaltstyp


Forum

  • Alienware-Community
    • Informationen & Feedback
    • Uservorstellungen
    • Marktplatz
    • Hardware & Software News
    • Community Games
  • Alienware Stuff
    • Alienware News
    • Alienware/Dell Support
    • Lieferstatus
    • Preise & Rabatte
    • Exklusives
  • Aktuelle Alienware Notebooks (2014 - Heute)
    • Allgemeines & Troubleshooting
    • Anleitungen & How To
    • Erfahrungsberichte & Benchmarks
    • Upgrades - Do-it-Yourself
    • Kauftipps & Entscheidungshilfen
  • Legacy Alienware Notebooks (2002 - 2014)
    • Allgemeines & Troubleshooting
    • Anleitungen & How To
    • Erfahrungsberichte & Benchmarks
    • Upgrades - Do-it-Yourself
    • Kauftipps & Entscheidungshilfen
  • Alienware Desktops (1996 - Heute)
    • Allgemeines & Troubleshooting
    • Anleitungen & How To
    • Upgrades - Do-it-Yourself
    • Erfahrungsberichte & Benchmarks
    • Kauftipps & Entscheidungshilfen
  • Zubehör
    • Alienware Zubehör
    • Andere Hersteller
  • Andere PC-Komponenten und Komplettsysteme
    • Allgemeine Fragen & Troubleshooting
    • Anleitungen & How To
    • Barebone Systeme
    • Sonstiges
  • Off-Topic
    • Windows Help-Center
    • Internet - Entdeckungen
    • Dies und Das

Kategorien

  • Anleitungen
  • Handbücher
    • Alienware - Desktops
    • Alienware - Notebooks
  • Benchmark- und Hardwaretools
  • Must Have Software
  • Software für Alienware-Features
  • Treiber und Updates
  • Windows Styles
  • BIOS Versionen
    • Offizielle Notebook-Versionen
    • Offizielle Desktop-Versionen
    • Unsortiert

Kategorien

  • Notebooks
  • Desktops
  • Peripherie
  • Hinweise

Suchtreffer finden in...

Suchtreffer enthalten ...


Erstellungsdatum

  • Beginn

    Ende


Zuletzt aktualisiert

  • Beginn

    Ende


Suchtreffer filtern nach ...

Benutzer seit

  • Beginn

    Ende


Gruppe


Wohnort


Beruf


Komplett PC (nicht Alienware)


Eigenbau PC


Notebook Generationen


Zubehör


Website URL


Skype


Battle.net


EA Origin


GOG COM


Steam


Uplay

  1. Da ich immer wieder mal Problem mit dem Alienware-Update-Tool bzw. dem Update im SupportAssist hatte, habe ich etwas recherchiert und Urachenforschung betrieben. Der Fehler zeigt sich dadurch, dass Meldungen wie "Laufende Aufgabe - Warten bis die Aufgabe beendet ist" angezeigt werden. Kommt wohl recht häufig vor, das Netz ist voll mit solchen Berichten. Verursacht wird dies oft durch fehlerhafte Dateien des Alienware Update Service. Meine funktionierende Lösung: Ich habe mir ein kleines Batch angelegt, welches ich bei Bedarf per Rechtsklick mit Admin-Rechten starte. Danach läuft alles erstmal wieder problemfrei. Inhalt der .bat-Datei: rmdir /s /q "C:\ProgramData\Dell\UpdateService" pause Vielleicht hilft dies ja dem einen oder anderen... Denke nicht, dass es sich um ein m18-spezifisches Problem handelt.
  2. Hallo, hab heute ein Problem bekommen, mein Alienware 18 Laptop bleibt beim Starten schwarz und piept 8x. Der Bildschirm hat davor so komisch geflackert. das Problem kam von jetzt auf gleich. Hab von den 880m auf die intrigierte gpu gewechselt kann es sein das die Intel Grafikkarte nen Abflug gemacht hat? Weil das echt komisch ist das die Geräte reihenweise sterben bei mir obwohl ich sie normal benutzt jabe
  3. Liebe Community, seitdem ich kleine Kinder habe, kann ich meinen alten Gaming Desktop kaum noch zum Zocken nutzen, u.a. weil ich nur noch Abends Zeit finde und dann schlafende Kinder im Zimmer sind. Ich flüchte seitdem mit einem Asus G731gw (i7 und 2080 mobile) ins Wohnzimmer zum Spielen. Ich spiele hauptsächlich Stellaris, BG3 (oder ähnliche RPGs), früher auch Skyrim, Fallout oder Elite Dangerous VR. BG3 bringt den Laptop zum Jaulen, daher fürchte ich, dass das nicht mehr lange gut geht. Ich möchte meinen Desktop ganz aussortieren, auch um Platz zu sparen, und künftig nur noch mit einem Laptop arbeiten und spielen. Bis ca. 4000€ (weniger ist natürlich besser) würde ich gehen können, ohne eine Ehekrise herauf zu beschwören. Der Kauf kann auch ruhig im nächsten Frühjahr stattfinden, ich halte es noch aus. Für das Geld benötige ich einen Laptop, mit dem ich die nächsten 5 Jahre überstehe, der mich nicht zu Undervolting/Repasting nötigt (dafür habe ich keine Zeit mehr) und der im Arbeitsmodus halbwegs leise ist. Eine 4090er RTX scheint mir sinnvoll, um die nächsten Jahre "Ruhe" zu haben. Die Größe und das Gewicht sind mir relativ wumpe, ins Wohnzimmer kriege ich auch 5kg getragen. Meine Recherchen und Nachfragen haben die Wahl auf den m18 r1, den SCAR 16, das X40 Beast (mit optionaler Wasserkühlung) und mit Abstrichen den Omen 17 verengt (jeweils mit 4090). Gibt es hierzu Erfahrungen? Der m18 gefällt mir gut, nur die CPU scheint recht heißzulaufen. Für Feedback/Erfahrungsberichte wäre ich dankbar! Viele Grüße Cyber Heinz (sorry, bei Prefix habe ich nix passendes gefunden)
  4. Hallöchen liebe AW-Community. Ich habe gestern einen Alienware 18 2014 als Schlachter gekauft und meinen etwas Hübscher zu machen. Neuer Bildschirm (da alter defekt wahrscheinlich Bildprozessor defekt oder Kabel) auch habe ich den Core i7 4910QM gegen einen i7 4930XM getauscht, versiffte Tastatur getauscht und keine Klebrigen Maustasten mehr. Gekauft für 220 Euro als Teildefekt. Dieser geht zwar aber war von vorne rein als Schlachter gedacht. Dieser wurde mir als Single 980m verkauft, als ich diesen gestern geöffnet habe waren dort 2 GTX980m verbaut. Nun ist die Frage das dass Bios nur eine erkennt, aber das SLI Kabel war an einer Karte nicht verbunden vielleicht liegt es daran. Was ich von euch Wissen möchte wie ich den Laptop auf beide 980m umbaue in dem anderen Laptop waren auch die 100Watt Kühler verbaut. Also ebenfalls Geld gesparrt. Ich bräuchte halt eine genaue Anleitung für das Upgrade das heißt Bios Version ist A15. Wie ich das Bios Unlocke und den Treiber Modde. Wie sieht das dann aus wegen den Updates der Treiber von NVIDIA muss ich dann den Treiber wieder Modifizeren? Und das ich dann vielleicht die 2 GTX 770m in den M18xR2 einbauen kann. Als Netzteil(e) habe ich zwei 330Watt Netzteile. Wäre euch sehr Dankbar. Und vielleicht mal sagen was ich dabei Falsch machen kann. Bezüglich Bios weil wenn tot dann Laptop tot wahrscheinlich.
  5. Hallo liebe Community, ich habe mir einen neue Laptop zugelegt, auch schon ein paar spiele usw. installiert. Nun würde ich gerne eine neue (größere) ssd Karte gegen die vorhandene tauschen. Ebenso würde ich in diesem Zuge auch gleich nochmal win11 neu aufsetzen wollen und quasi alles auf werkseinstellung setzen. Könnt ihr mir sagen wie ich da am einfachsten vorgehen sollte? vielen Dank im voraus
  6. Durch die vielen Repastes ist mir schon häufiger aufgefallen, dass User, obwohl sie NVMe SSDs wie die Samsung 970 Evo plus verbaut haben, im standardmäßigen "RAID on" Modus unterwegs sind. Für PCIe NVMe SSDs ist der richtige Modus aber AHCI. Für diejenigen, die nicht genau wissen worum es geht, es ist im BIOS eine auswählbare Funktion wie die Speichercontroller angesprochen werden und mit dem Chipsatz/ System kommunizieren. Natürlich funktionieren die NVMe SSDs auch im RAID on Modus, jedoch sind hier dann einige Funktionen eingeschränkt oder stehen nicht zur Verfügung. Beispielsweise lässt sich die SSD nicht mit den herstellereigenen Tools öffnen und verwalten (Samsung Magician). Auch lässt sich der dazugehörige NVMe Treiber nicht installieren. Die Festplatte läuft dann auf einem Standard-Intel RST Treiber. Das lässt sich relativ einfach im Geräte-Manager nachprüfen: Da ich vor einiger Zeit zwei m15 hier hatte, habe ich ChrystalDiskMark durchlaufen lassen. Dabei war das Testgerät im RAID on Modus und hatte zwei NVMe SSDs verbaut. Mein Gerät ist im AHCI Modus und hat zwei Samsung 970 EVO Plus SSDs verbaut. So sehen die Ergebnisse aus: Gerade bei den Schreibgeschwindigkeiten ist der Unterschied doch schon enorm. Fairerweise muss aber auch sagen, dass das Testgerät mit den von Dell verbauten SSDs daherkam. Ich habe diese als OEM deklariert. Was mich jetzt brennend interessiert: wie performt die Samsung 970 SSD im RAID on Modus? Würde mich freuen wenn das jemand abchecken und online stellen könnte. Danke Ich hatte versucht Informationen dazu zu finden, aber wirklich verlässliche Infos habe leider nicht gefunden. Im XPS-Forum wurde wohl was von ca. 5% Leistungsverlust gesprochen, wobei der Beitrag auch schon mehrere Jahr alt ist. Samsung empfiehlt jedenfalls AHCI um den vollen Funktions- und Leistungsumfang nutzen zu können. Vor allem die volle Schreib- und Leseleistung soll nur mit dem Samsung NVMe Treiber möglich sein. Noch ein paar Anmerkungen: Hat man sein OS im RAID on Modus laufen, kann man nicht einfach auf AHCI wechseln. Das OS, welches im RAID on Modus installiert wurde, lässt sich dann nicht mehr booten. Möchte man AHCI nutzen, ist leider dafür eine Neuinstallation nötig. Den ChrystalDiskMark findet ihr -HIER-. Wie gesagt, würde mich freuen, wenn einer, der die Samsung 970 EVO Plus verbaut hat und im RAID on Modus ist, einen kurzen CrystalDiskMark durchlaufen lassen könnte. Einfach installieren und ausführen, keine weiteren Einstellungen nötig. Bin gespannt wie klein oder groß der Unterschied ausfällt.
  7. Da es gerade bei bastellustigen Alienwarebenutzern immer wieder dazu kommt, dass Grafikkarten in Notebooks verbaut werden die Dell nicht nativ angeboten hatte, werden Änderungen notwendig um den Treiber von nVidia installieren zu können. Fast genauso häufig wie dieser Treiber benötigt wird ist auch die Frage danach wie man den Treiber anpasst. Fangen wir jedoch einen Schritt vorher an. Wieso muss ein passender Treiber überhaupt erst manuell angepasst werden um installiert zu werden? Hier liegt die Verantwortung bei nVidia und deren Hardwareerkennung. Der Treiber kontrolliert leider nicht nur die HardwareID der Grafikkarte sondern die Kombination aus Notebook und Karte. Wenn nun eine dieser Kombinationen vom Hersteller, in unserem Fall Dell, nicht an nVidia gemeldet wurde taucht die ID nicht in der Erkennung auf. Und genau hier setzen wir nun an und holen dies nach. -Wie ist die HardwareID aufgebaut? -Welche Datei muss ich ändern? -Welche Änderungen müssen vorgenommen werden? -Muss ich sonst noch etwas beachten? Wie ist die HardwareID aufgebaut? Die Hardware-ID der Grafikkarte finden wir im Geräte-Manager. Wenn noch kein Treiber installiert ist heißt unsere Grafikkarte dort "Standart-VGA", "Microsoft-Standart-Anzeigegerät" oder ähnliches. Dieser Name ändert sich später durch den Treiber. Um dieses Tutorial möglichst leicht verständlich und nachvollziehbar zu gestallten ist es nicht unwichtig zu wissen wie die benötigte HardwareID aufgebaut ist. Nehmen wir uns als Beispiel eine GTX680m in einem M17xR2. PCI\VEN_10DE&DEV_11A0&SUBSYS_043A1028 VEN_10DE = nVidia DEV_11A0 = GTX 680M 043A = M17xR2 1028 = Dell Welche Datei muss ich ändern? Nachdem wir versucht haben den neuen Treiber von nVidia zu installieren und dieser Versuch abgebrochen wurde findet sich der bereits entpackte Treiber auf der Festplatte, meist unter C:\NVIDIA\DisplayDriver\VERSION\Win8_WinVista_Win7_64\International\Display.Driver\ In diesem Ordner befinden sich u.a. folgende INF-Dateien. nvaci.inf Acer, Gateway nvami.inf Asus nvaoi.inf Apple nvbli.inf HP nvcti.inf Compal nvcvi.inf Clevo nvdmi.inf Dell nvfmi.inf Fujitsu nvfui.inf Siemens nvhmi.inf HP nvloi.inf LG nvlti.inf Lenovo nvmi.inf MSI nvqni.inf NEC nvszci.inf Sony nvtdi.inf Toshiba Qosmio nvtsi.inf Toshiba Welche Datei hiervon wir nun ändern ist prizipiell egal, denn bei der Installation werden ohnehin alle Dateien nach einer passenden HardwareID durchforstet. Der Ordnung halber verwende ich jedoch die "nvdmi.inf". Welche Änderungen müssen vorgenommen werden? Kommen wir nun zum Kernthema. Es sind nur zwei Zeilen die wir der Datei hinzufügen müssen. Die erste Zeile sagt dem Treiber, dass unsere HardwareID kompatibel ist. Um die Stelle der ersten Änderung zu finden ist es wichtig zu wissen welches Betriebssystem verwendet wird. Sucht jeweils die Zeile die zu eurem OS passt. 1.1 Vista [NVIDIA_SetA_Devices.NTamd64.6.0] 1.2 Win7 [NVIDIA_SetA_Devices.NTamd64.6.1] 1.3 Win8 [NVIDIA_SetA_Devices.NTamd64.6.2] 1.4 Win8.1 [NVIDIA_SetA_Devices.NTamd64.6.3] In der Zeile darunter tragen wir nun folgendes ein: %NVIDIA_DEV.11A0.043A.1028% = Section033, PCI\VEN_10DE&DEV_11A0&SUBSYS_043A1028 Natürlich müsst ihr diese Zeile euerer HardwareID entsprechend anpassen. Die zweite Zeile die wir ändern sagt dem Treiber wie er die Karte anschließend benennen soll. Sucht die folgende Zeilen (OS ist dieses mal egal): DiskID1 = "NVIDIA Windows (64 bit) Driver Library Installation Disk 1" NVIDIA = "NVIDIA" NVIDIA_A = "NVIDIA" In der Zeile darunter tragen wir nun unsere Karte ein. In unserem Beispiel wäre dies: NVIDIA_DEV.11A0.043A.1028 = "NVIDIA Tuschkasten GTX 680M" Auch diese Zeile muss etsprechend eurer HardwareID angepasst werden. Anschließend müssen wir nur noch die Datei speichern und die Installation neu starten. Hierzu folgende Datei ausführen: C:\NVIDIA\DisplayDriver\VERSION\Win8_WinVista_Win7_64\International\setup.exe Muss ich sonst noch etwas beachten? Da der Treiber nun modifiziert ist stimmt er nicht mehr mit der digitalen Signatur überein. Bei Vista und Win7 ist dies nicht weiter schlimm. Hier muss man nur bestätigen, dass der Treiber dennoch installiert werden soll. Ab Win8 hingegen muss zuerst die Installation von nicht signierten Treibern zugelassen werden. Hierzu die Eingabeaufforderung öffnen (WinTaste+X) und folgendes eingeben: bcdedit /set {current} testsigning yes Danch Windows neu starten und den Treiber installieren. Um die Installation nicht signierter Treiber wieder zu unterbinden erneut die Eingabeaufforderung öffnen und folgendes eingeben: bcdedit /set {current} testsigning no Auch diese Änderung wird erst nach einem Neustart wirksam.
  8. Zur Info, weil es sich "wieder mal" zu häufen scheint: Auf älteren Maschinen knallt es jetzt in Verbindung mit dem neuesten Win 10 und Support Assist. Bluescreens, Freezes usw. Ich konnte das jetzt auf allen meinen Oldies reproduzieren. M15X, Area51 ALX, X51, X58. Also wenn es Probleme gibt, den SA als erstes mal deinstallieren. Spart ne Menge Zeit und Ärger 😏👽
  9. Hallo, ich bin neu hier im Forum. Ich hatte auch vorher nie ein Alienware Produkt. Ich bin im Besitz eines neuen Laptops M17 R5. Gestern hatte mein Laptop ein irgendein Alienware Update durchgeführt. (Erst grüner Ladebalken, dann Neustart). Beim Neustart blieb der Bildschirm schwarz. Hatte dann irgendwann ausgeschaltet (Vielleicht war das der Fehler). Seitdem bleibt der Bildschwirm schwarz beim Neustart. Ich bin jetzt schon seit Stunden den Support am durchlesen. Wollte auch ein BIOS reset machen. Auch BIOS von USB Stick neu laden (Die aktuelle Version für meinen Laptop habe ich frisch von der Supportseite runtergeladen). Leider alles ohne Erfolg. Wollte den Premium Support anrufen. Aber die Nummer sei nicht vergeben. Ich hoffe, ich finde hier Hilfe. Grüße Sven
  10. Guten Tag, ich habe vor einigen Tagen ein neues Notebook bestellt (X15 R2) Jetzt stellt sich mir die Frage wie eine perfekte Installation (Treiber sowie der Rest) der Reihe nach abläuft. Auf was muss ich achten? Am besten Schritt für Schritt erklärt. Konnte leider nichts aktuelles zu dem Thema finden, weshalb ich es hier nochmal aufgreifen möchte. Bedanke mich schonmal herzlich für die Antworten! Mfg Daniel
  11. Hallo zusammen, ich habe ein Alienware 17 R5 Notebook, welches ich gebraucht gekauft habe. Nun wollte ich mir mal die Gaming-Makro-Tasten (FX-Tasten!?) konfigurieren um diese zu nutzen. Wie ich Makros konfiguriere weiss ich eigentlich, da ich an meinem PC eine Logitech-Tastatur habe. Im Alienware Command-Center bin ich oben auf FX gegangen, dann bei dem Standarddesign (ich habe kein anderes bisher) auf "Makros" und darunter die Tastatur "Alienware 17 R5 Standard KB" ausgewählt. Dann bin ich auf das Plus gegangen um ein Makro zu erstellen. Hier habe ich "Tastenanschlag" gewählt, einen Namen ("Test") vergeben, Tastenanschlag habe ich die Taste "1" genommen und Wiederholung keine ausgewählt. Dann auf Speichern im Ordner "Meine Makros". Dann habe ich das Makro "Test" auf die Makrotaste gelegt und bin dann unten auf "Design speichern" gegangen. Mein Problem ist nun, dass nichts passiert, wenn ich die belegte Makrotaste klicke!?!?!?!?!?!?!?!?!? Ich habe eine Textdatei aufgemacht, jetzt sollte eigentlich eine 1 geschrieben werden, wenn ich die Makro-Taste klicke. Leider passiert dies nicht... Was muss ich tun, damit es funktioniert????? Ich bin total verzweifelt! Bisher hatte ich immer alles hier im Forum gefunden, wenn ich was wissen wollte, aber zu diesem Problem finde ich nichts. Habe es auch schon mit einer Word-Datei versucht. Alienware Command-Center sollte auf dem aktuellen Stand sein, da mir im Alienware UpdateCenter kein Update angeboten wird. Grüße Alien17R5
  12. hallo leute . ich bin zwar schon über 50 aber kenne mich mit computer normal aus habe aber ein selber nicht lösbares problem ich habe ein m18xr2 . letzten monat wollte mein g.data virenscanner ein update auf eine neue version machen .alles lief prima wie immer aber dann sagte mir g.data das ich nicht die neuste microsoft version hätte .ich also auf update gegangen und system sagte sie sind auf dem neusten stand .also wieder probiert ,gleiche problem . ich habe dann bei g-data angerufen ,der herr fragt mich dann welche microsoft version ich hätte und es stellte sich raus 1903 ,haben müsste ich aber 21h2 . er sagte dann ich soll mir das 21h2 über windows upgrate runterholen ,und aber vorher g.date deinstalieren und wieder drauf machen . so beides hat nich geklappt .ich habe eine 2 tb ssd drinn davon ist nur knapp ein tb belegt . es kommt immer die meldung das das system nicht auf einen stick kann ,obwohl ich garkeinen habe . so und ich habe dann auch kein d.data schutz mehr . ich habe dann versucht das problem zu lösen ,aber kein erfolg ,dann habe ich mir wohl eine malware eingefangen .also malewirbites runtergeladen laufen lassen ,aber noch mehr probleme gehabt ,das ding wollte nur was machen wenn ich voll bezahle .also wieder runter und malware hunter drauf .das hat 2 gefunden und die gelöscht . laut taskmanger ssoll aber dell selber die leistung hochfahren für viele daten .so ich habe jetzt aus not mal das avira drauf gemacht .damit ich was schutz habe . so 21h2 bekomme ich trotz tool nicht drauf beider versionen probiert . und die lüfter drehen hoch ohne grosse belastung,beim start alles normal lüfter leise nach 3 bis 5 minuten trotz leerlauf drehen die hoch . so wer kann mir helfen ? ich habe teamviewer drauf . wenn jemand sich das ankucken könnte und helfen wäre klasse .ich würde bei hilfe auch geld bezahlen .über eine paysafe karte . so ich hoffe es gibt hier paar computerfachmänner hier ? wer kann mir helfen mfg crusi
  13. Ich würde Vorschlagen das wir über Neue Hardware hier weiter schreiben und das „Wartezimmer“ auch so genutzt wird. Sprich egal ob asus, Msi und co. Kann hier alles rein. So kann man sich auch freier Unterhalten. Ich Persönlich hätte am liebsten das Duo 16 von asus, aber auch das Z13 Reizt mich. Die ganzen Windows Handhelds werden auch immer interessanter. _______ Zum Start wird es aber wohl wieder so sein das „eher“ MSI und Razer überall erhältlich sein werden. Auf was wartet Ihr denn so bzw. Wollt Ihr euch evtl bestellen.? PS: Nett währe es, wenn man über ein gerät spricht direkt (wenn man es weiß) die TDP der Grafikkarte dazu schreibt. So lets Gooo
  14. Also ich hab hier ein Problem. Beziehen wir uns mal auf das Razer Blade 17 2021 MID mit i9 11900h, 32 GB Crucial Ballistix, 2 TB Raid 0 mit 2x 980 Pro, RTX 3080 mit 130W TGP, 4k 120 Hz Touch-Display mit 100% RGB Abdeckung. Soweit so gut. Ich habe die Pads auf Stock gelassen und Conductonaut aufgetragen. Da man bei Razer die Lüfter nicht steuern kann unter Höchstleistung, sondern nur unter "Balanced" dort aber die Leistung rapide sinkt, hab ich ein thermisches Problem. Das Gerät stürzt ab und zu ab. BSOD WHEA UNCORRECTABLE ERROR. Ich hab die Vermutung, dass Synapse die Lüfter anhand der CPU und GPU einstellt und die Hotspots sowie VRAMs, Mosfets außen vor lässt und es daraufhin zu einem Absturz kommt. Jetzt hab ich mir mal sehr viel Pads gekauft in verschiedenen Stärken und WM/K angaben, wobei diese ja auch mit Vorsicht zu genießen sind. Ich habe sogar Messequipment womit ich die Paddicke messen kann. Jetzt eine Frage an die absoluten Profis: Das Teil hat ja ne riesige Vapor-Chamber und welche Pads würdet ihr mir empfehlen sowie würdet ihr zusätzliche Bereiche abdecken, um evtl. die Wärme besser ableiten zu können? Die selbe Frage gilt auch für mein M17 R4. Welche Pads vorhanden sind könnt ihr den Bildern entnehmen. Dann hab ich Kryonaut, Conductonaut und K5 Pro. Ich will wirklich das Maximum herausholen. Zusätzlich habe ich noch einen Coolermaster Notepal U3 mit 3x Noctua 120mm Lüftern (Danke dafür an @Sk0b0ld für die Anleitung) Das Razer hat ja auch 4 Lüfter um den Airflow zu verbessern. Wenn ihr sonst noch irgendwelche Tipps habt um mehr aus der Kühlung herauszuholen gerne her damit. Ich bedanke mich für eure Mühe! Anbei ein paar Bilder von meinem "Wochenendprojekt" Sollte ich die Pads vom Backcover ebenfalls austauschen? Eher dünnere Pads oder dickere? Es gibt ja auch noch den Shore Wert, den man evtl. noch mit berücksichtigen sollte. Mittlerweile sind auch die einzelnen Dicken der Stockpads ausgemessen worden, die Frage ist jetzt welche ich nehme oder doch K5 Pro? Hab jetzt alles soweit vorbereitet ich warte nur noch auf Rückmeldung. Wichtig wäre mir auch, ob es was bringt noch andere Bereiche auszufüllen beispielsweise mit K5 Pro oder Pads.
  15. Nach dem der erste Versuch die Wärmeleitpads zu testen fehlschlug, beschloss ich die Sache erneut anzugehen. Diesmal aber etwas praxisbezogener, genauer und mit einer besseren Vergleichbarkeit. Vorwort Zunächst ein paar Sachen, die ich im Vorfeld beleuchten möchte damit man meine Entscheidungen und mein Vorgehen besser nachvollziehen kann. Eins aber gleich vorweg, sicher hätte man vielleicht den Test noch besser oder noch genauer machen können, aber so ein Test, in so einem Ausmaß durchzuführen ist sehr zeitintensiv und äußerst mühsam. Gerade bei einem Notebook, welches man immer wieder komplett zerlegen muss um das Wärmeleitpad zu tauschen. Angesichts der insgesamt 50 Tests bitte ich das zu berücksichtigen. Ansonsten Kritik, Lob, Verbesserungsvorschläge usw. nehme ich immer gerne an und jedem steht es frei eigenen Tests zu machen. Mit welchem Gerät wurde getestet? Da ich den Versuch so praxis- und anwendungsnah wie möglich nachstellen wollte, habe ich mir verschiedene Notebooks (MSI, Clevo, Toshiba) als Testgerät hierfür besorgt. Meinen AW17 R5 wollte/ konnte ich aus verschiedenen Gründen nicht dafür nehmen. Schlussendlich fiel die Entscheidung auf das Toshiba Notebook, genauer gesagt auf das Toshiba Satellite C70D-A-11D. Ein entscheidender Grund war die Heatsink. Diese war beim Toshiba vollständig aus Aluminium (bis auf die Heatpipe), sowie im Anwendungsgebiet der Wärmeleitpads. Mit Kupfer wollte ich nicht die Gefahr eingehen, dass ich mir vielleicht die Ergebnisse versaue bzw. nicht so eine Vergleichbarkeit besteht wie mit Aluminium. Ein weiterer Grund für das Toshiba C70D war die Befestigung der Heatsink. Die Schrauben hatten alle einen festen Endpunkt und der eigentliche Anpressdruck wurde über die Federn ausgeübt. So konnte ich sicher sein, dass ich bei allen Tests immer den gleichen Anpressdruck habe. CPU und GPU befanden sich beide auf einem Chip: AMD A6-5200 APU with Radeon HD 8400 Graphics Was genau wurde getestet? Getestet wurden verschiedene Hersteller der Wärmeleitpads, ebenso auch die verschiedenen Stärken/ Dicken, aber auch anderes Zeug wie K5-Pro oder Wärmeleitklebeband und letztendlich noch eine Wärmeleitpaste als direkter Vergleich zu den Pads. Hier mal eine kurze Übersicht: Thermal Grizzly Minus Pad 8 in 1,0 und 0,5 mm (Hersteller-Link) (8 W/mK) AlphaCool Eisschicht in 1,5, 1,0 und 0,5 mm (Hersteller-Link) (7 /11 /17 W/mK) Arctic Thermal Pad in 1,5, 1,0 und 0,5 mm (Hersteller-Link) (6 W/mK) EKWB Thermal Pad G in 1,0 und 0,5 mm (Hersteller-Link) (3,5 W/mK) Computer Systems K5-Pro (Hersteller-Link) (>5,3 W/mK) Wärmeleitklebeband 0,2mm (Kauf-Link) Noctua NT-H2 Wärmeleitpaste (Hersteller-Link) Wie wurde getestet (Testbedingungen)? Hierzu habe ich einen IDLE und einen LOAD Test gemacht. Bei jedem Wärmeleitpad habe ich diese beiden Tests jeweils zwei Mal gemacht, sprich vier Tests pro Wärmeleitpad. Mit dieser Methode wollte ich gegebenenfalls Messfehler ausschließen und die Genauigkeit erhöhen. Alle Tests liefen 15 – 16 Minuten und es wurde penibel darauf geachtet, dass alle Fenster an der gleichen Stelle sind, der Log immer an derselben Stelle losgeht, immer die gleichen Einstellungen geladen sind usw. Schließlich wollte ich diesmal alles so sauber wie möglich testen. Für den IDLE-Test habe immer ein Youtube-Video laufen lassen. Es war ein 15-minütiges Countdown-Video mit Alarm. Das hat das Loggen etwas vereinfacht und das Video hat verhindert, dass das Notebook den Bildschirm abdunkelt oder in den Energiespar-Modus geht oder sonst was. Bei Notebooks wie Toshiba, Acer usw. ist immer sehr viel Bloatware mit installiert. Da weiß man nie so wirklich wie sich das Notebook unter gewissen Umständen verhält. Deswegen was Einfaches, was kaum Last erzeugt und zuverlässig funktioniert. Für den LOAD-Test habe ich Cinebench R20 genommen. Ich habe ihn gewählt, weil dieser 100% Last auf allen Kernen erzeugt und glücklicherweise mit dem alten Toshiba Notebook ebenfalls 15 – 16 Minuten geht. Es wurde immer erst der IDLE-Test und anschließend er LOAD-Test durchgeführt. Dann würde halbe Stunde gewartet und wieder IDLE- und LOAD-Test. Bei allen Tests habe ich auch immer darauf geachtet, dass die CPU Package Power (Gesamtverbrauch) ihre „bestimmten“ Werte erreicht. So konnte ich ziemlich sicher sein, dass der Test sauber durchgelaufen ist. Dazu im Chart dann mehr. Außerdem wurde auch auf die Raumtemperatur geachtet. Dank der Belüftungsanlage in der Wohnung und des geringen Stromverbrauchs (= Abwärme) des Notebooks, betrug sie bei allen Tests konstant 22 – 23 °C. Auf allen Tests stand das Notebook auf einem Cooler Master U3-PLUS Kühler OHNE Lüfter. Damit wollte ich verhindern, dass sich das Gehäuse bzw. die Tischplatte aufheizt oder sich Stauwärme oder dergleichen bildet. Außerdem war das Arbeiten in der Position für mich angenehmer. Geloggt wurde das Ganze übrigens mit HWinfo und später in Excel übernommen. Nun zu dem Wichtigsten, dem Ergebnis. Wie ich schon vermutet habe, erzeugen dickere Pads mehr Widerstand und dementsprechend schlechtere Temperaturen. Wobei die Eisschicht-Pads von Alphacool bei der 1,0mm Dicke die Nase vorn hatten. In der Dicke 0,5mm gibt unter den Herstellern kaum ein Unterschied. Sie performen alle relativ gleich gut, auch K5-Pro und die Pads von Arctic. Außer die Pads von EKWB, die waren in allen Tests verhältnismäßig schlecht, leider. Ich habe da auch einen Verdacht, dazu aber später mehr. Das Wärmeleitklebeband hat mich schon ein wenig überrascht. Obwohl es sehr dünn mit 0,2mm war, war es so dermaßen schlecht, dass ich mir zwei weitere Tests gespart habe. Dort wurde selbst im Cinebench weiter runtergetaktet als im idle. Erst dachte ich, hmmm vielleicht ist es zu dünn und hat sich gelöst, aber bei der Demontage hat das Tape verdammt gut geklebt und ich habe die Heatsink nur mit sehr viel Kraft abbekommen. Also eine Verbindung bestand definitiv. Für eine bessere Lesbarkeit habe ich noch die Spalte "°C pro erzeugten Watt" aufgelistet, weil nur die nackten Zahlen manchmal täuschen können. Natürlich erzeugt weniger Last (Package Power) auch weniger Wärme und man muss das in die Bewertung mit einfließen lassen. Genauso auch die Drehzahl der Lüfter, wobei diese sowohl im IDLE als auch im LOAD überwiegend immer gleich war. Jetzt mal Noctua und das Wärmeleitklebeband außen vorgenommen. Obwohl ich darauf geachtet habe, dass alles so sauber wie möglich getestet wird, ist mir ein Ausrutscher leider trotzdem rein gekommen und zwar bei der Nr. 41. Normalerweise wurde im IDLE-Test immer so um die 3,xx Watt erzeugt. Hier war es knapp das Doppelte, weil wahrscheinlich irgendein Hintergrundprozess lief. Glücklicherweise habe ich aber immer einen zweiten Test gemacht und dieser entspricht mehr allen anderen IDLE-Tests im Vergleich. Deshalb bitte nur diesen werten. Da ich nicht genau weiß wie klein das Chart bei euch auf dem Bildschirm dargestellt wird, habe ich es vergrößert und in der Mitte geteilt. Somit sollte man alle Werte erkennen können. Interessant finde ich, dass die Hersteller mit ihren Wm/K - Werten sich immer gegenseitig überbieten und die teuren Pads angeblich so viel besser die Wärme weitergeben als die günstigen. Vergleicht man die W/mK-Werte der Hersteller und mein Ergebnis, kann ich mir nur schwer vorstellen, dass die W/mK-Werte tatsächlich einem genormten Test entsprechen. Gut, aber das kennt man ja schon von Wärmeleitpaste und Lüfter. Hersteller testen gerne unter ihren "eigenen" Testbedingen um das eigenen Produkt besser dastehen zu lassen. Wärmeleitpaste kann man noch einfach selber testen und es gibt dazu auch etliche Videos auf Youtube, aber zu Wärmeleitpads gibt es kaum ausführliche Tests. Und da man das nicht so einfach selber testen kann, musste man also hoffen, dass der Mehrpreis für das Produkt auch gerechtfertigt ist. Deswegen habe ich diesen Test gemacht.
  16. Ich möchte mir jetzt bzw. spätestens im Herbst eine Aurora R12 kaufen. Ich habe mir diese Konfiguration ausgesucht: Ich bin mir noch nicht ganz sicher ob ich jetzt oder erst am Black Friday bestelle. Bei jetziger Bestellung könnte ich einen 10% Gutscheincodes nutzen. Am Black Friday gibt es meistens auch nicht viel mehr (12% bis 14%) Mit ca. 2700€ liege ich auch am meinem Limit mehr möchte ich nicht investieren. Jetzt zu meinen Fragen, kommen im Herbst vielleicht noch neue Intel CPUs ? Vielleicht noch 90€ mehr für den I9 ausgeben? Nvidia hat gerade die TI GPU rausgebracht, da wird wohl dieses Jahr nichts mehr neues kommen denke ich. Der Aufpreis zur 3080 ist aber eine Frechheit finde ich. Vielen Dank für eure Mühe, grüße aus den hohen Norden😁
  17. Hallo zusammen, es ist soweit. Wie ich schon ab und zu fallen ließ, arbeite ich im Moment an einer Problemlösung für nicht mehr funktionierende Lüfter nach einem GPU Upgrade - bzw. es ist für alle praktisch, die eine größere Freiheit beim konfigurieren ihrer Lüfter möchten. Ich habe eine kleine Platine entwickelt, auf welche zwei bis drei Lüfter + Temperatursensoren gesteckt werden können. (Alternativ löten um in neueren Geräten Platz zu sparen) Was macht diese Platine? Die Platine misst direkt am Kühlkörper die Temperatur und kann, anhand einer eigenen Lüfterkurve, die Lüfterdrehzahl regeln. Die Temperaturmessung am Kühlkörper bietet einen großen Vorteil, den sämtliche anderen Regelungen (ob ab Werk oder per Software) nicht haben. Der Lüfter kühlt schließlich in erster Linie den Kühlkörper. Daher ergibt es keinen Sinn, dass der Lüfter bei jeder kleinen Temperaturspitze der CPU/GPU schon anspringt. Um das zu verhindern ist ab Werk eine programmierte Verzögerung mit drin, die aber immer nur ein Faustwert ist. Der nächste Vorteil der eigenen Regelung ist, dass man die Drehzahl viel tiefer einstellen kann, bis auf 200rpm runter. Aktuell schalten die Geräte zwischen leisem Lüftergeräusch und keinem Geräusch hin und her. Es ist aber möglich, den Lüfter so langsam laufen zu lassen, dass man im Idle Betrieb eine ausreichende Kühlleistung hat und den Lüfter trotzdem nicht hören kann. Bei meinem Testlüfter (18 R1) entspricht das ca. 650rpm. Test der Kühlleistung (natürlich mit meinem 18R1) Aus einem Grund, den ich weiter unten noch erkläre habe ich einen reinen CPU Test gemacht: Ich habe meinen i7 4930mx auf allen Kernen auf 4.1GHz übertaktet und den Laptop für gleiche Bedingungen zwischen den Tests zwei Stunden abkühlen lassen. Zwei Minuten nach dem Einschalten habe ich Prime 95 gestartet und die Zeit gemessen, nach der die CPU bestimme Temperaturen erreicht hat. Standard Lüfterprofil: 60°C nach 2s | 70°C nach 4s | 80°C nach 11s | 85°C nach 22s Eigenes Lüfterprofil mit SpeedFan: 60°C nach 2s | 70°C nach 13s | 80°C nach 49s | 85°C nach 1:55min Lüfterplatine: 60°C nach 2s | 70°C nach 19s | 80°C nach 1:12min | 85°C nach 2:15min Die Temperatur nach 10min war immer gleich (+- 2°C). Zu Beobachten ist, dass sich die Platine deutlich agiler verhält als die Standardregelung, was sich in Spielen positiv auf die Temperatur und Lärmbelästigung auswirken sollte. Zudem Wird der Lüfter gefühlt Stufenlos schneller/lauter was des Geräusch subjektiv angenehmer macht. Warum sollte? Wo ist der Spieletest und warum nur die CPU? Ich habe bei meiner Version 1 leider einen kleinen aber unangenehmen Rechenfehler gemacht. Ich habe vergessen einen Divisor zur Taktrate des PWM Signals hinzr zu rechnen, weshalb des PWM Signal ein laut hörbares Spulenfiepen erzeugt. Hätte ich den Divisor nicht vergessen hätte ich direkt an einen externen Oszillator für den Mikrokontroller gedacht und die Frequenz wäre im nicht hörbaren Bereich gewesen. So muss ich leider noch eine Version zwei entwickeln. Aber: Durch Fehler lernt man doch immernoch am besten. Was haltet ihr davon? Bitte haltet euch mit eurer Kritik nicht zurück! Ich kann alles von "So etwas dummes habe ich noch nie gehört. " bis "Cool das will ich auch" verkraften. Hilfreichen wären auch Ideen was so eine Platine eurer Meinung nach noch können sollte. Wie eingangs erwähnt ist die Platine hauptsächlich dafür gedacht, wenn man (wie ich) das Problem hat, dass die Lüfter nach einem GPU Upgrade nicht mehr laufen. Aber auch für eine bessere Einstellbarkeit kann sie verwendet werden. Da ich alles (Platine und Programm) selber entwickelt habe gibt es auch kein Copyright. Also falls jemand Interesse an der verbesserten Version 2 hat, gerne schreiben, dann rücke ich auch die CAD Daten und das Programm raus. Ich berichte hier natürlich, sobald die Version 2 angekommen, bestückt, programmiert und getestet ist. Bis dahin freue ich mich über eure Meinung dazu.
  18. Hallo Zusammen, ich habe hier einen AW Area51m r2 mit 2x 16gb hynix speicher 3200 drinnen, laut Lieferschein soll es aber angeblich nur 2933 sein, aber auf dem DIMM steht 3200 drauf. Jetzt kommt meine Frage, wenn ich im BIOS XMP aktivieren möchte geht es nicht der Riegel läuft auch nur auf 2933 mit 21-21-21-47 timinigs, kann man den wirklich nicht auf 3200 mhz laufen lassen, hat da jemand schon Erfahrungen mit gemacht? Ich habe hier alternativ noch ripjaws 3000 rumliegen mit 16-16-18-42 timings meint ihr die sind noch besser wenn man die anderen auf 3200 stellen kann? Vielen Dank vorab
  19. Nachdem ich in meinem letzten Tutorial versucht habe allgemein verständlich zu erklären wie man die Treiber von nVidia so anpasst, dass sie auch mit anderen Kombinationen aus Notebook und vom Hersteller nativ angebotenen Grafikkarten funktionieren möchte ich dieses mal darlegen wie man das vBIOS seiner Grafikkarte flasht. -Wozu das vBIOS flashen? -Wo bekomme ich ein vBIOS her? -Was benötige ich? -Wie flashe ich ein vBIOS? -Welche Folgen hat das Flashen? Wozu das vBIOS flashen? Mobile Grafikkarten unterliegen diversen Beschränkungen der Leistung. So ist, um ein Beispiel zu nennen, häufig die einstellbare Taktrate der GPU niedriger als nötig gesetzt. Weitere Beschränkungen können beispielsweise die Spannung der GPU sein. Der wohl häufigste Grund für einen Flash dürfte es also sein die Leistung zu steigern. Ein weiterer wenn auch weniger häufige Grund ist das aufspielen zum Notebook kompatibler Hardware, denn nicht von jedem Subvendor lässt sich die Firmware in jedem Notebook betreiben. So funktioniert eine Karte von MSI nicht ohne neue Firmware in einem Alien. Wo bekomme ich ein vBIOS her? Es gibt mehrere Bezugsquellen. So kann man beispielsweise mit dem Programm GPU-Z das aktuelle vBIOS seiner Grafikkarte in einer Datei speichern und diese dann einem anderen der sie benötigt zur Verfügung stellen. Es gibt auch diverse Internetseiten bei denen man sich ein passendes vBIOS runterladen kann. Meine bevorzugte Quelle ist der in diesem Bereich sehr bekannte svl7. Die meisten mir bekannten gemoddeten vBIOS stammen aus seiner Feder und haben den Ruf besonders stabil und zuverlässig zu sein. Links werde ich hier nicht selber posten. Es soll mir hinterher niemand sagen können, dass ich schuld an einem unpassend geflashten vBIOS sei. Was benötige ich? Ich stelle hier die Möglichkeit dar das vBIOS via USB-Speicherstick mithilfe des Programms nvflash zu flashen. Die benötigte Software nenne und verlinke ich. Zusätzlich wird nur ein Speicherstick benötigt. Wie flashe ich ein vBIOS? Als erstes müssen wir den Speicherstick bootfähig vorbereiten. Hierfür benutzen wir das Programm HPUSBDisk und den entpackten Ordner win98boot. Nach dem Starten des Programms müsst ihr sicherstellen, dass der Stick im Format FAT32 unter Einbindung des eben genannten Ordner formatiert wird. Nachdem der Stick so präpariert wurde kopieren wir den Inhalt des Ordners nvflash_5.136.zip und das gewünschte vBIOS in Form der ROM-Datei auf den Stick. Anschließend erstellen wir noch eine Textdatei mit dem Namen autoexec.bat mit dem Inhalt nvflash -6 DATEINAME DATEINAME dabei natürlich durch den Namen eures vBIOS ROMs ersetzen. Dank der autoexec.bat brauchen wir später keine Programme im DOS manuell starten und somit auch keine Sonderzeichen suchen. Nicht vergessen noch flott das aktuelle vBIOS zu sichern. Dies kann beispielsweise mit GPU-Z geschehen. Die Sicherung sollte auf einem zweiten Rechner gespeichert werden um im seltenen Falle eines Fehlflashs den Stick anpassen zu können. Jetzt starten wir den Laptop mit eingestecktem Stick neu. Hierbei drücken wir an geeigneter Stelle F2 um ins BIOS zu gelangen. Dort wird die Bootorder so eingestellt, dass der Stick an erster Stelle steht. Alternativ kann natürlich auch der Stick im Bootmenü ausgewählt werden. Wenn allerdings etwas daneben geht beim Flashen ist ein Blindflash einfacher, wenn man nicht ohne etwas sehen zu können im Bootmenü rumkramen muss. Wenn alles läuft wie geplant solltet ihr nur noch mit y (bzw z) den Flashvorgang bestätigen müssen. Eventuell wird eine Warnung angezeigt. Dies ist bei gemoddeten vBIOS zu erwarten und kann mit y (bzw z) bestätigt werden. Wenige Sekunden danach wird der Flashvorgang beendet sein. Dies erkennt ihr dadurch, dass euch ein Prompt (C:\>) angezeigt wird. Ihr könnt euer Laptop nun mit neuem vBIOS neustarten. Welche Folgen hat das Flashen? Neben den gewünschten Effekten gibt es noch die ungewünschte Folge, dass eure Garantie dadurch ein Ende findet. Sagt dem Telefonmenschen im Falle eines Supportfalles also lieber nichts von diesem Vorgang.
  20. Nach dem ich alles löschen und formatiert hatte ,ging komplett das Licht aus. Also der Alienkopf , der Schriftzug und auch die Tastaturbeleuchtung ist aus. Alle versuche bis lang ohne Erfolg,hat jemand noch eine ath Datei rumliegen die passen könnte? habe ein Alienware M17X ich weiß ist schon etwas älter.
  21. Das Thema DSR wird immer mal - unter anderem von mir - in einigen Posts erwähnt. Es gibt hierzu im Forum aber noch keine Anleitung und ich finde, dass das Thema hier zu kurz kommt, gerade da viele eine 2080 oder stärker haben, jedoch nur ein 1920x1080px-Display. Deswegen diese Anleitung, auf die ich dann zukünftig bei Bedarf verlinken kann. Mittels DSR von Nvidia ist es möglich, Spiele in 2560x1440px oder 3840x2160px (oder auch anderen Auflösungen) zu spielen, obwohl das interne Display z.B. nur 1920x1080px unterstützt. Sobald ihr DSR aktiviert habt, könnt ihr diese Auflösungen in Spielen auswählen, so als hättet ihr ein Display, welches höhere Auflösungen unterstützt. Wie geht das? Nvidia Systemsteuerung öffnen „3D-Einstellungen verwalten“ ihr seid nun im Reiter "Globale Einstellungen". Dort wählt ihr bei „DSR-Faktoren“ 1,78x (2560x1440px), 2,25x (2880x1620px) sowie 4,00x (3840x2160px). Die anderen sind eigentlich uninteressant Darunter erscheint nun „DSR-Glättung“ welches auf 33% steht. Das sieht aber zu verwaschen aus. Wählt 20% aus. Dies ist vorallem für 2560x1440px wichtig, da es sonst zu grieselig ist. Bei 3840x2160px könntet ihr sogar 0% Smoothness nutzen, was dann am besten aussähe. Ihr könnt diesen Wert aber nicht für jeden Faktor konfigurieren, sondern nur global. Insofern sind 20% wegen 2560x1440px und auch 2880x1620px die beste Wahl Das wars. Jetzt könnt ihr euer Spiel starten und in den Spiel-Einstellungen taucht nun auch 2560x1440px, 2880x1620px und 3840x2160px auf. Einfach auswählen und das höhere Rendering genießen. Euer 1920x1080px Display bleibt natürlich technisch stets ein solches Display, die gerenderte Auflösung steigt jedoch, dies beschert euch einen Optik-Vorteil. Noch besser wäre es natürlich, wenn euer Display auch nativ die höhere Auflösung beherrschen würde (dann wäre es noch schärfer). Aber es lohnt sich trotzdem. Allgemeine Empfehlung: Wenn ihr grundsätzlich über genügend Leistung verfügt, und ihr nicht so viele fps braucht, wählt im Spiel 3840x2160px. Sofern ihr (neben 1920x1080px) nur diese Auflösung nutzt, könnt ihr wie oben schon angedeutet den Smoothness-Wert auf 0% stellen. Solltet ihr auch andere (Zwischen-)Auflösungen nutzen wollen, was sehr wahrscheinlich ist, so wählt wie gesagt 20% aus. Sofern ihr ein Laptop mit HDMI 2.0 (also keine Nvidia 30XX) habt und einen 120Hz-TV benutzt: Dadurch dass der TV kein DisplayPort 1.4 hat und euer HDMI Ausgang am Laptop nur HDMI 2.0 hat, könnt ihr 120 Hz nur bis 2560x1440px haben. Bei höheren Auflösungen seid ihr auf 60 Hz beschränkt. In diesem Fall empfehle ich keine höhere Auflösung als 2560x1440px zu nutzen, es sei denn euch macht 60 Hz und V-Sync nichts aus. Denn sonst kommt keine richtige Freude auf (meiner Ansicht nach), auch mit G-Sync nicht. In dem Fall aktiviert nur den Faktor 1,78x. 2560x1440px sind aber immerhin auch schon die 1,78 Fache Auflösung gegenüber 1920x1080... Sofern ihr ein Laptop mit HDM 2.1 habt und einen 120Hz-TV benutzt: Statt Faktor 1,78x (2560x1440px) könnt ihr nun auch 2880x1620px (Faktor 2,25x) benutzen und ihr habt trotzdem noch 120 Hz. Die Auflösung ist etwas höher und somit noch schärfer. Zudem lässt sie sich für das Display mathematisch gesehen besser umrechnen, was zu einer noch besseren Schärfe führt. Grundsätzlich sind die Faktoren 2,25x und 4,00x am besten, sie benötigen die wenigsten Filter. Gerade aber TVs beherrschen Upscaling sehr gut, hier werdet ihr zwischen 2560x1440px und 2880x1620px nur sehr wenige Unterschiede sehen. Bedenkt jedoch, dass die höhere Auflösung mehr Leistung benötigt. Sofern ihr ein Laptop (egal ob HDMI 2.0 oder HDMI 2.1) habt und einen 120 Hz oder höher Monitor benutzt: Hier gilt das Gleiche. Neben 2560x1440px könnt ihr dank DisplayPort 1.4 (schließt den Monitor also per Display Port an) auch 2880x1620px oder höher nutzen, ohne auf 60 Hz beschränkt zu sein. Sobald ihr eben einen 120Hz-TV benutzt, egal ob ihr auch schon einen externen Monitor nutzt oder nicht, muss klar sein, dass der TV kein Display-Port hat. Ein Laptop mit HDMI 2.0 (alle bis RTX 2080) macht dann nur Spaß (120 Hz!) am TV mit maximal 2560x1440px. (Beim 120 Hz-TV setze ich natürlich jetzt mal voraus, dass dieser bereits einen HDMI 2.1 Eingang hat, z.B. LG C9). Dann noch ein Hinweis: Egal ob ihr mit eurem internen Display spielt, oder mit dem Monitor (oder mit dem TV), nutzt immer die gleiche Auflösung. Sofern jedes Display die genutzte Einstellung/Auflösung unterstützt, bleibt diese erhalten. Sprich ihr müsst nur einmal die richtige Auflösung im Spiel auswählen, und schon bleibt sie für immer eingespeichert, egal mit welchem Display ihr spielt. -> das ist normalerweise nicht der Fall! Oder zumindest nicht bei jedem Spiel. Beispiel: Ihr zockt ein Spiel mit 1920x1080px an eurem Alienware-Display, also das vom Laptop. Dann schließt ihr ein Monitor oder TV an. Dort ist dann natürlich 1920x1080px auch ausgewählt. So wollt ihr wahrscheinlich an eurem 2560x1440px- oder 3840x2160px-Monitor (oder TV) aber nicht spielen, also erhöht ihr manuell in den Spiel-Einstellungen die Auflösung. Was passiert beim nächsten mal wenn ihr wieder am Alienware spielt? Richtig, dort wird dann wieder 1920x1080 gesetzt (weil eine höhere Auflösung vom internen Display ja nicht unterstützt wird) und beim nächsten mal Spielen am Monitor/TV müsst ihr die höhere Auflösung wieder manuell auswählen… nervig ohne Ende. Hier hilft euch DSR nun ungemein. Ihr spielt nun auch einfach am Alienware-Display bzw. eben überall mit 2560x1440px, 2880x1620px oder 3840x2160px, fertig. Welche Vorteile hat das Ganze also zusammengefasst? Optik: die Spiele sehen besser aus, für eine 2080 bietet sich in vielen Spielen 2560x1440px oder 2880x1620px an, damit hat man dann noch oft mindestens 60 fps. 3840x2160px solltet ihr nur in älteren oder nicht anfordernden Titeln auswählen, es sei denn ihr habt eine 3080 mit 150+ Watt oder unter 60 fps macht euch nichts aus (mir schon) Komfort: das Spiel merkt sich dauerhaft diese Auflösung. Wenn ihr wie schon gesagt ab und zu am internen Display spielt, und dann wieder am Monitor oder TV, müsst ihr bei vielen Spielen ständig wieder zwischen den verschiedenen Auflösungen wechseln (sofern ihr am Monitor oder TV eine höhere Auflösung verwenden wollt). Wenn ihr aber DSR aktiv habt, und bei allen Displays die gleiche Auflösung verwendet, bleibt diese dauerhaft eingespeichert und euch der ständige Wechsel der Auflösung in den Spiel-Settings erspart) Ihr könnt übrigens DSR aktiv haben, und wenn ihr den Monitor (oder TV) angeschlossen habt, nicht. Sprich die Nvidia Systemsteuerung unterscheidet hier je nach Display. Ihr könnt DSR natürlich auch dafür benutzen, um eurem schon höher aufgelösten 2560x1440px-Monitor 5120x2880px oder eurem 3840x2160px-Monitor 7680x4320px beizubringen… das kostet dann aber richtig Leistung... Welche Nachteile hat das Ganze? Ihr braucht natürlich mehr Leistung, habt also weniger fps. DSR verhält sich leistungstechnisch fast exakt genau so, wie als wenn ihr nativ eine höhere Auflösung hättet. Bei Spielen, die ihr konstant mit über 100 (oder 200) fps spielen wollt, z.B. Shooter wie CoD Modern Warfare oder Coldwar, empfiehlt es sich weiterhin die 1920x1080px-Auflösung zu nutzen (es sei denn ihr habt eine 3080 mit 150+ Watt, dann geht dort evtl. auch 2560x1440px). Aber für viele Spiele, die ihr z.B. in Third-Person mit Controller spielt, sind - zumindest nach meinem Geschmack - ca. 60-90 fps und 2560x1440px, 2880x1620px oder 3840x2160px die deutlich bessere Wahl als ca. 120 fps bei 1920x1080px. PS: Ich habe in dieser Anleitung bewusst keine Wörter wie QHD, 1440p, UHD, 4k usw. benutzt, weil manchen nicht jedes bekannt sein dürfte. Mit der stets ausgeschriebenen Auflösung, z.B. 2560x1440px, kann aber jeder was anfangen.
  22. Hallo Forenmitglieder, ich bin seit Freitag stolzer Besitzer eines Area 51m Laptops. Um meinen kleinen Arbeitsplatz (mein Arbeitszimmer ist nun ein Kinderzimmer) abzurunden, habe ich mir zu meinem Laptop von DELL eine Dockingstation Modell WD19 (130W) bestellt. Warum diese Dock: Vor allem wegen der Möglichkeit, ein Laptop das über USB-C angeschlossen ist über den Powerbutton zu starten, auch wenn das Notebook zugeklappt ist. Aber genau da liegt der Haken. Ich habe alles entsprechend der empfohlenen Vorgaben angeschlossen (bin in der IT tätig, also nicht ganz unbedarft) aber bei Herunterfahren des Laptops und drücken des Powerbuttons an der Dock tut sich mal... gar nix. Habe danach nach den USB-C Treibern für mein Area 51m geschaut und neu installiert, aber der Effekt bleibt der gleiche. Habe im BIOS auch Wake-On-USB aktiviert, aber auch das hat leider nichts gebracht. Habe nach einem Firmware-Update für die Dockingstation bei DELL gesucht, aber außer einem Audio-Treiber von Realtek wurde mir nichts weiteres angeboten. Aber vielleicht bin ich auch einfach zu blind? By the Way: Das BIOS / UEFI sieht ja ziemlich altbacken aus. Da es mein erstes AW-Gerät ist: Ist das normal? Sollte ich die Suchfunktion via google oder auch hier im Forum nicht richtig bedient haben: Entschuldigt bitte und gerne darauf hinweisen das es einen solchen Thread schon gibt. Kurze Fakten: BIOS-Firmware: 1.7.3 CPU: i7 8700 (8. Gen) RAM: 16GB SSD: 512GB HDD: 1TB GraKa: RTX 2700 OS: Windows 10, Build 1809 Für Eure Hilfe lieben Dank, Michael
  23. Hallo zusammen. Auf Nachfrage erstelle ich nochmal eine kurze Anleitung wie man seine Grafikkarte richtig einstellt, wenn man sich entschlossen hat ein unlocked vBios zu flashen. Ich werde das alles am Beispiel meiner 980m's erklären. Die Werte, die ich einstelle, sind nicht gemeingültig und funktionieren nicht bei allen Karten gleich. Wichtig: Ich übernehme (wie immer) keine Haftung. Das soll nur ein Leitfaden sein. Wenn man sich mit dem Thema unlocked vBios und OC beschäftigt muss einem auch klar sein, dass man damit ein gewisses Risiko eingeht. Das unlocked vBios: Dazu wie man überhaupt ein vBios auf seine Karte bekommt verweise ich auf meinen Thread den ich vor ein paar Tagen erstellt habe. Bei einem unlocked vBios sind (wie der Name schon vermuten lässt) die Grenzen freigeschaltet. Das betrifft Spannung, Takt, Speicher-Takt, Leistungsaufnahme und Temperaturlimit. Außerdem kann es sein, dass ein unlocked vBios standardmäßig einen anderen Takt bei einer anderen Spannung anlegt als mit den normalen vBios. Daher kann es dazu kommen, dass die Karte garnicht von Anfang an lauffähig ist, bzw. unter Last crashed. Um diese Einstellungen soll es in diesem Thread gehen. Was brauche ich dafür? Software Nvidia Inspector Windows Aufgabenplanung Furmark Ich erkläre hier am Beispiel des Nvidia Inspectors. Das ist die Oberfläche die ihr (so oder so ähnlich) seht, wenn ihr ein unlocked vBios geflashed habt. Eine 980m taktet normal mit 1128MHz. Bei Default Clock steht hier 1202MHz. Das ist die Übertaktung, die das vBios mitbringt. Um also ein Profil ohne Übertaktung zu haben musste ich um 75MHz nach unten korrigieren (gelb markiert). Auch das Powerlimit habe ich angehoben, damit die Karte nicht mehr drosselt. Gleichzeitig läuft die Karte im P0 (also höchster Power-State) bei dem vBios nur mit 1,000V was für meine Karten ebenfalls zuwenig ist. Ich musste um 0,025V erhöhen. Mit diesen Einstellung habe ich einen stabiles System. Wie finde ich die richtigen Einstellungen? Mithilfe des Furmark-Stresstests kann man sein Karte auslasten. Wenn man noch garnicht weiß wie sich die Karte verhält, testet man den Standardtakt der Karte. Den findet man ganz gut bei Notebookcheck heraus. Friert der Bildschirm ein oder stürzt der Rechner ab erhöht man die Spannung um 12,5mV (kleinster Schritt) und testet erneut. Diesen Vorgang wiederholt man so lange bis man die richtige Spannung gefunden hat und das System stabil läuft. Kommt man irgendwann bei 100mV mehr an und es läuft immer noch nichts wie es soll, dann ist noch was anderes nicht richtig (Treiber oder so). Wenn die Einstellungen im Furmark funktionieren heißt es jedoch nicht, dass sie überall funktionieren. Also testet man am besten mit einem grafisch anspruchsvollen Spiel und das über eine lange Zeit. Alternativ kann man auch den Stabilitätstest von 3D-Mark dafür nutzen. Wie übertakte ich? Das kann man in einem Wort zusammenfassen: LANGSAM Beim übertakten tastet man sich vorsichtig höher. Sprich man erhöht den Takt vorsichtig (ich mache maximal 10MHz Schritte) und erhöht dann die Spannung bis das System wieder stabil ist. Dann folgt der Langzeittest. Wenn das System weiter stabil bleibt und die Temperaturen noch niedrig sind kann man noch weiter erhöhen. Ich persönlich habe meine Wohlfühltemperatur der GPU's bei max. 80°C. Mehr möchte ich nicht haben. Ist aber jedem seine Sache. Kann ich Profile anlegen? Ja, man kann sich Profile erstellen. Dafür eignet sich der Nvidia Inspector recht gut, da man die Anwendung einfach mit anderen Attributen aufrufen kann. In meinem Fall habe ich eine Windows Aufgabe erstellt, die beim Systemstart den Nvidia Inspector öffnet und zwar mit folgenden Attributen: -setBaseClockOffset:0,0,-75 -setMemoryClockOffset:0,0,0 -setVoltageOffset:0,0,25000 -setPowerTarget:0,130 -setTempTarget:0,1,90 -setBaseClockOffset:1,0,-75 -setMemoryClockOffset:1,0,0 -setVoltageOffset:1,0,50000 -setPowerTarget:1,130 -setTempTarget:1,1,90 "-" Leitet ein neues Attribut ein. "set...." Ist der Wert den man setzen möchte "x,y,z" Die erste Ziffer steht für die Karte (bei nicht SLI-Systemen also immer 0). "x,y,z" Die zweite Ziffer steht steht für einen gesetzten Haken. In meinem Fall also nur bei Priorize Temperature 1, ansonsten 0. "x,y,z" Der dritte Wert ist der Wert den ihr einstellen wollt. Der Reihenfolge nach also in: MHz (Offset), MHz (Offset), mV (Offset), % (Absolut), °C (Absolut) Mit Hilfe der Windows Aufgabenplanung werden meine Karten stabil und ohne OC eingestellt und zwar bei jedem Systemstart ohne dass ich das bemerke. Um die Karte jetzt aktiv hochzutakten habe ich mit Makrotasten im AW-CC angelegt. Nach dem gleichen Prinzip wie in der Aufgabenplanung nur mit straffer abgestimmten Werten. Ich hoffe meine kleine Anleitung kann dem einen oder anderen helfen. @bluedragon Ich hoffe du kommst mit dieser Anleitung etwas weiter. Falls du noch fragen hast bitte gleich mit HWiNFO Log hier dazu schreiben. Dann können auch andere davon profitieren.
  24. Hi zusammen, ich wechsle bald in eine neue Firma und darf mir da natürlich ein neues Arbeitsgerät aussuchen. Aktuell kenne ich den Rahmen noch nicht, daher würde ich den auch erstmal offen halten. Was könnt ihr empfehlen? Ich bin für alle Vorschläge offen. Das ich nur mit Microsoft Technologien arbeite sollte es definitiv auch ein Windows 10 Notebook sein. Folgende Modelle habe ich im Kopf: - Dell XPS 15 - Dell XPS 17 - Surface Book 3 Danke für eure Tipps
×
×
  • Neu erstellen...

Wichtige Information

Bitte beachten Sie folgende Informationen: Nutzungsbedingungen, Datenschutzerklärung und Community-Regeln. Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.