Zum Inhalt springen

Community durchsuchen

Zeige Ergebnisse für die Tags "'Alle Modelle (Notebooks)'".

  • Suche nach Tags

    Trenne mehrere Tags mit Kommata voneinander ab.
  • Suche Inhalte eines Autors

Inhaltstyp


Forum

  • Alienware-Community
    • Informationen & Feedback
    • Uservorstellungen
    • Marktplatz
    • Hardware & Software News
    • Community Games
  • Alienware Stuff
    • Alienware News
    • Alienware/Dell Support
    • Lieferstatus
    • Preise & Rabatte
    • Exklusives
  • Aktuelle Alienware Notebooks (2014 - Heute)
    • Allgemeines & Troubleshooting
    • Anleitungen & How To
    • Erfahrungsberichte & Benchmarks
    • Upgrades - Do-it-Yourself
    • Kauftipps & Entscheidungshilfen
  • Legacy Alienware Notebooks (2002 - 2014)
    • Allgemeines & Troubleshooting
    • Anleitungen & How To
    • Erfahrungsberichte & Benchmarks
    • Upgrades - Do-it-Yourself
    • Kauftipps & Entscheidungshilfen
  • Alienware Desktops (1996 - Heute)
    • Allgemeines & Troubleshooting
    • Anleitungen & How To
    • Upgrades - Do-it-Yourself
    • Erfahrungsberichte & Benchmarks
    • Kauftipps & Entscheidungshilfen
  • Zubehör
    • Alienware Zubehör
    • Andere Hersteller
  • Andere PC-Komponenten und Komplettsysteme
    • Allgemeine Fragen & Troubleshooting
    • Anleitungen & How To
    • Barebone Systeme
    • Sonstiges
  • Off-Topic
    • Windows Help-Center
    • Internet - Entdeckungen
    • Dies und Das

Kategorien

  • Anleitungen
  • Handbücher
    • Alienware - Desktops
    • Alienware - Notebooks
  • Benchmark- und Hardwaretools
  • Must Have Software
  • Software für Alienware-Features
  • Treiber und Updates
  • Windows Styles
  • BIOS Versionen
    • Offizielle Notebook-Versionen
    • Offizielle Desktop-Versionen
    • Unsortiert

Kategorien

  • Notebooks
  • Desktops
  • Peripherie
  • Hinweise

Ergebnisse finden in...

Suchtreffer enthalten ...


Erstellungsdatum

  • Beginn

    Ende


Zuletzt aktualisiert

  • Beginn

    Ende


Suchtreffer filtern nach ...

Benutzer seit

  • Beginn

    Ende


Gruppe


Wohnort


Beruf


Komplett PC (nicht Alienware)


Eigenbau PC


Notebook Generationen


Zubehör


Website URL


Skype


Battle.net


EA Origin


GOG COM


Steam


Uplay

  1. Ich möchte mir jetzt bzw. spätestens im Herbst eine Aurora R12 kaufen. Ich habe mir diese Konfiguration ausgesucht: Ich bin mir noch nicht ganz sicher ob ich jetzt oder erst am Black Friday bestelle. Bei jetziger Bestellung könnte ich einen 10% Gutscheincodes nutzen. Am Black Friday gibt es meistens auch nicht viel mehr (12% bis 14%) Mit ca. 2700€ liege ich auch am meinem Limit mehr möchte ich nicht investieren. Jetzt zu meinen Fragen, kommen im Herbst vielleicht noch neue Intel CPUs ? Vielleicht noch 90€ mehr für den I9 ausgeben? Nvidia hat gerade die TI GPU rausgebracht, da wird wohl dieses Jahr nichts mehr neues kommen denke ich. Der Aufpreis zur 3080 ist aber eine Frechheit finde ich. Vielen Dank für eure Mühe, grüße aus den hohen Norden😁
  2. Hallo zusammen, es ist soweit. Wie ich schon ab und zu fallen ließ, arbeite ich im Moment an einer Problemlösung für nicht mehr funktionierende Lüfter nach einem GPU Upgrade - bzw. es ist für alle praktisch, die eine größere Freiheit beim konfigurieren ihrer Lüfter möchten. Ich habe eine kleine Platine entwickelt, auf welche zwei bis drei Lüfter + Temperatursensoren gesteckt werden können. (Alternativ löten um in neueren Geräten Platz zu sparen) Was macht diese Platine? Die Platine misst direkt am Kühlkörper die Temperatur und kann, anhand einer eigenen Lüfterkurve, die Lüfterdrehzahl regeln. Die Temperaturmessung am Kühlkörper bietet einen großen Vorteil, den sämtliche anderen Regelungen (ob ab Werk oder per Software) nicht haben. Der Lüfter kühlt schließlich in erster Linie den Kühlkörper. Daher ergibt es keinen Sinn, dass der Lüfter bei jeder kleinen Temperaturspitze der CPU/GPU schon anspringt. Um das zu verhindern ist ab Werk eine programmierte Verzögerung mit drin, die aber immer nur ein Faustwert ist. Der nächste Vorteil der eigenen Regelung ist, dass man die Drehzahl viel tiefer einstellen kann, bis auf 200rpm runter. Aktuell schalten die Geräte zwischen leisem Lüftergeräusch und keinem Geräusch hin und her. Es ist aber möglich, den Lüfter so langsam laufen zu lassen, dass man im Idle Betrieb eine ausreichende Kühlleistung hat und den Lüfter trotzdem nicht hören kann. Bei meinem Testlüfter (18 R1) entspricht das ca. 650rpm. Test der Kühlleistung (natürlich mit meinem 18R1) Aus einem Grund, den ich weiter unten noch erkläre habe ich einen reinen CPU Test gemacht: Ich habe meinen i7 4930mx auf allen Kernen auf 4.1GHz übertaktet und den Laptop für gleiche Bedingungen zwischen den Tests zwei Stunden abkühlen lassen. Zwei Minuten nach dem Einschalten habe ich Prime 95 gestartet und die Zeit gemessen, nach der die CPU bestimme Temperaturen erreicht hat. Standard Lüfterprofil: 60°C nach 2s | 70°C nach 4s | 80°C nach 11s | 85°C nach 22s Eigenes Lüfterprofil mit SpeedFan: 60°C nach 2s | 70°C nach 13s | 80°C nach 49s | 85°C nach 1:55min Lüfterplatine: 60°C nach 2s | 70°C nach 19s | 80°C nach 1:12min | 85°C nach 2:15min Die Temperatur nach 10min war immer gleich (+- 2°C). Zu Beobachten ist, dass sich die Platine deutlich agiler verhält als die Standardregelung, was sich in Spielen positiv auf die Temperatur und Lärmbelästigung auswirken sollte. Zudem Wird der Lüfter gefühlt Stufenlos schneller/lauter was des Geräusch subjektiv angenehmer macht. Warum sollte? Wo ist der Spieletest und warum nur die CPU? Ich habe bei meiner Version 1 leider einen kleinen aber unangenehmen Rechenfehler gemacht. Ich habe vergessen einen Divisor zur Taktrate des PWM Signals hinzr zu rechnen, weshalb des PWM Signal ein laut hörbares Spulenfiepen erzeugt. Hätte ich den Divisor nicht vergessen hätte ich direkt an einen externen Oszillator für den Mikrokontroller gedacht und die Frequenz wäre im nicht hörbaren Bereich gewesen. So muss ich leider noch eine Version zwei entwickeln. Aber: Durch Fehler lernt man doch immernoch am besten. Was haltet ihr davon? Bitte haltet euch mit eurer Kritik nicht zurück! Ich kann alles von "So etwas dummes habe ich noch nie gehört. " bis "Cool das will ich auch" verkraften. Hilfreichen wären auch Ideen was so eine Platine eurer Meinung nach noch können sollte. Wie eingangs erwähnt ist die Platine hauptsächlich dafür gedacht, wenn man (wie ich) das Problem hat, dass die Lüfter nach einem GPU Upgrade nicht mehr laufen. Aber auch für eine bessere Einstellbarkeit kann sie verwendet werden. Da ich alles (Platine und Programm) selber entwickelt habe gibt es auch kein Copyright. Also falls jemand Interesse an der verbesserten Version 2 hat, gerne schreiben, dann rücke ich auch die CAD Daten und das Programm raus. Ich berichte hier natürlich, sobald die Version 2 angekommen, bestückt, programmiert und getestet ist. Bis dahin freue ich mich über eure Meinung dazu.
  3. Hallo Zusammen, ich habe hier einen AW Area51m r2 mit 2x 16gb hynix speicher 3200 drinnen, laut Lieferschein soll es aber angeblich nur 2933 sein, aber auf dem DIMM steht 3200 drauf. Jetzt kommt meine Frage, wenn ich im BIOS XMP aktivieren möchte geht es nicht der Riegel läuft auch nur auf 2933 mit 21-21-21-47 timinigs, kann man den wirklich nicht auf 3200 mhz laufen lassen, hat da jemand schon Erfahrungen mit gemacht? Ich habe hier alternativ noch ripjaws 3000 rumliegen mit 16-16-18-42 timings meint ihr die sind noch besser wenn man die anderen auf 3200 stellen kann? Vielen Dank vorab
  4. Nachdem ich in meinem letzten Tutorial versucht habe allgemein verständlich zu erklären wie man die Treiber von nVidia so anpasst, dass sie auch mit anderen Kombinationen aus Notebook und vom Hersteller nativ angebotenen Grafikkarten funktionieren möchte ich dieses mal darlegen wie man das vBIOS seiner Grafikkarte flasht. -Wozu das vBIOS flashen? -Wo bekomme ich ein vBIOS her? -Was benötige ich? -Wie flashe ich ein vBIOS? -Welche Folgen hat das Flashen? Wozu das vBIOS flashen? Mobile Grafikkarten unterliegen diversen Beschränkungen der Leistung. So ist, um ein Beispiel zu nennen, häufig die einstellbare Taktrate der GPU niedriger als nötig gesetzt. Weitere Beschränkungen können beispielsweise die Spannung der GPU sein. Der wohl häufigste Grund für einen Flash dürfte es also sein die Leistung zu steigern. Ein weiterer wenn auch weniger häufige Grund ist das aufspielen zum Notebook kompatibler Hardware, denn nicht von jedem Subvendor lässt sich die Firmware in jedem Notebook betreiben. So funktioniert eine Karte von MSI nicht ohne neue Firmware in einem Alien. Wo bekomme ich ein vBIOS her? Es gibt mehrere Bezugsquellen. So kann man beispielsweise mit dem Programm GPU-Z das aktuelle vBIOS seiner Grafikkarte in einer Datei speichern und diese dann einem anderen der sie benötigt zur Verfügung stellen. Es gibt auch diverse Internetseiten bei denen man sich ein passendes vBIOS runterladen kann. Meine bevorzugte Quelle ist der in diesem Bereich sehr bekannte svl7. Die meisten mir bekannten gemoddeten vBIOS stammen aus seiner Feder und haben den Ruf besonders stabil und zuverlässig zu sein. Links werde ich hier nicht selber posten. Es soll mir hinterher niemand sagen können, dass ich schuld an einem unpassend geflashten vBIOS sei. Was benötige ich? Ich stelle hier die Möglichkeit dar das vBIOS via USB-Speicherstick mithilfe des Programms nvflash zu flashen. Die benötigte Software nenne und verlinke ich. Zusätzlich wird nur ein Speicherstick benötigt. Wie flashe ich ein vBIOS? Als erstes müssen wir den Speicherstick bootfähig vorbereiten. Hierfür benutzen wir das Programm HPUSBDisk und den entpackten Ordner win98boot. Nach dem Starten des Programms müsst ihr sicherstellen, dass der Stick im Format FAT32 unter Einbindung des eben genannten Ordner formatiert wird. Nachdem der Stick so präpariert wurde kopieren wir den Inhalt des Ordners nvflash_5.136.zip und das gewünschte vBIOS in Form der ROM-Datei auf den Stick. Anschließend erstellen wir noch eine Textdatei mit dem Namen autoexec.bat mit dem Inhalt nvflash -6 DATEINAME DATEINAME dabei natürlich durch den Namen eures vBIOS ROMs ersetzen. Dank der autoexec.bat brauchen wir später keine Programme im DOS manuell starten und somit auch keine Sonderzeichen suchen. Nicht vergessen noch flott das aktuelle vBIOS zu sichern. Dies kann beispielsweise mit GPU-Z geschehen. Die Sicherung sollte auf einem zweiten Rechner gespeichert werden um im seltenen Falle eines Fehlflashs den Stick anpassen zu können. Jetzt starten wir den Laptop mit eingestecktem Stick neu. Hierbei drücken wir an geeigneter Stelle F2 um ins BIOS zu gelangen. Dort wird die Bootorder so eingestellt, dass der Stick an erster Stelle steht. Alternativ kann natürlich auch der Stick im Bootmenü ausgewählt werden. Wenn allerdings etwas daneben geht beim Flashen ist ein Blindflash einfacher, wenn man nicht ohne etwas sehen zu können im Bootmenü rumkramen muss. Wenn alles läuft wie geplant solltet ihr nur noch mit y (bzw z) den Flashvorgang bestätigen müssen. Eventuell wird eine Warnung angezeigt. Dies ist bei gemoddeten vBIOS zu erwarten und kann mit y (bzw z) bestätigt werden. Wenige Sekunden danach wird der Flashvorgang beendet sein. Dies erkennt ihr dadurch, dass euch ein Prompt (C:\>) angezeigt wird. Ihr könnt euer Laptop nun mit neuem vBIOS neustarten. Welche Folgen hat das Flashen? Neben den gewünschten Effekten gibt es noch die ungewünschte Folge, dass eure Garantie dadurch ein Ende findet. Sagt dem Telefonmenschen im Falle eines Supportfalles also lieber nichts von diesem Vorgang.
  5. Nach dem ich alles löschen und formatiert hatte ,ging komplett das Licht aus. Also der Alienkopf , der Schriftzug und auch die Tastaturbeleuchtung ist aus. Alle versuche bis lang ohne Erfolg,hat jemand noch eine ath Datei rumliegen die passen könnte? habe ein Alienware M17X ich weiß ist schon etwas älter.
  6. Das Thema DSR wird immer mal - unter anderem von mir - in einigen Posts erwähnt. Es gibt hierzu im Forum aber noch keine Anleitung und ich finde, dass das Thema hier zu kurz kommt, gerade da viele eine 2080 oder stärker haben, jedoch nur ein 1920x1080px-Display. Deswegen diese Anleitung, auf die ich dann zukünftig bei Bedarf verlinken kann. Mittels DSR von Nvidia ist es möglich, Spiele in 2560x1440px oder 3840x2160px (oder auch anderen Auflösungen) zu spielen, obwohl das interne Display z.B. nur 1920x1080px unterstützt. Sobald ihr DSR aktiviert habt, könnt ihr diese Auflösungen in Spielen auswählen, so als hättet ihr ein Display, welches höhere Auflösungen unterstützt. Wie geht das? Nvidia Systemsteuerung öffnen „3D-Einstellungen verwalten“ ihr seid nun im Reiter "Globale Einstellungen". Dort wählt ihr bei „DSR-Faktoren“ 1,78x (2560x1440px), 2,25x (2880x1620px) sowie 4,00x (3840x2160px). Die anderen sind eigentlich uninteressant Darunter erscheint nun „DSR-Glättung“ welches auf 33% steht. Das sieht aber zu verwaschen aus. Wählt 20% aus. Dies ist vorallem für 2560x1440px wichtig, da es sonst zu grieselig ist. Bei 3840x2160px könntet ihr sogar 0% Smoothness nutzen, was dann am besten aussähe. Ihr könnt diesen Wert aber nicht für jeden Faktor konfigurieren, sondern nur global. Insofern sind 20% wegen 2560x1440px und auch 2880x1620px die beste Wahl Das wars. Jetzt könnt ihr euer Spiel starten und in den Spiel-Einstellungen taucht nun auch 2560x1440px, 2880x1620px und 3840x2160px auf. Einfach auswählen und das höhere Rendering genießen. Euer 1920x1080px Display bleibt natürlich technisch stets ein solches Display, die gerenderte Auflösung steigt jedoch, dies beschert euch einen Optik-Vorteil. Noch besser wäre es natürlich, wenn euer Display auch nativ die höhere Auflösung beherrschen würde (dann wäre es noch schärfer). Aber es lohnt sich trotzdem. Allgemeine Empfehlung: Wenn ihr grundsätzlich über genügend Leistung verfügt, und ihr nicht so viele fps braucht, wählt im Spiel 3840x2160px. Sofern ihr (neben 1920x1080px) nur diese Auflösung nutzt, könnt ihr wie oben schon angedeutet den Smoothness-Wert auf 0% stellen. Solltet ihr auch andere (Zwischen-)Auflösungen nutzen wollen, was sehr wahrscheinlich ist, so wählt wie gesagt 20% aus. Sofern ihr ein Laptop mit HDMI 2.0 (also keine Nvidia 30XX) habt und einen 120Hz-TV benutzt: Dadurch dass der TV kein DisplayPort 1.4 hat und euer HDMI Ausgang am Laptop nur HDMI 2.0 hat, könnt ihr 120 Hz nur bis 2560x1440px haben. Bei höheren Auflösungen seid ihr auf 60 Hz beschränkt. In diesem Fall empfehle ich keine höhere Auflösung als 2560x1440px zu nutzen, es sei denn euch macht 60 Hz und V-Sync nichts aus. Denn sonst kommt keine richtige Freude auf (meiner Ansicht nach), auch mit G-Sync nicht. In dem Fall aktiviert nur den Faktor 1,78x. 2560x1440px sind aber immerhin auch schon die 1,78 Fache Auflösung gegenüber 1920x1080... Sofern ihr ein Laptop mit HDM 2.1 habt und einen 120Hz-TV benutzt: Statt Faktor 1,78x (2560x1440px) könnt ihr nun auch 2880x1620px (Faktor 2,25x) benutzen und ihr habt trotzdem noch 120 Hz. Die Auflösung ist etwas höher und somit noch schärfer. Zudem lässt sie sich für das Display mathematisch gesehen besser umrechnen, was zu einer noch besseren Schärfe führt. Grundsätzlich sind die Faktoren 2,25x und 4,00x am besten, sie benötigen die wenigsten Filter. Gerade aber TVs beherrschen Upscaling sehr gut, hier werdet ihr zwischen 2560x1440px und 2880x1620px nur sehr wenige Unterschiede sehen. Bedenkt jedoch, dass die höhere Auflösung mehr Leistung benötigt. Sofern ihr ein Laptop (egal ob HDMI 2.0 oder HDMI 2.1) habt und einen 120 Hz oder höher Monitor benutzt: Hier gilt das Gleiche. Neben 2560x1440px könnt ihr dank DisplayPort 1.4 (schließt den Monitor also per Display Port an) auch 2880x1620px oder höher nutzen, ohne auf 60 Hz beschränkt zu sein. Sobald ihr eben einen 120Hz-TV benutzt, egal ob ihr auch schon einen externen Monitor nutzt oder nicht, muss klar sein, dass der TV kein Display-Port hat. Ein Laptop mit HDMI 2.0 (alle bis RTX 2080) macht dann nur Spaß (120 Hz!) am TV mit maximal 2560x1440px. (Beim 120 Hz-TV setze ich natürlich jetzt mal voraus, dass dieser bereits einen HDMI 2.1 Eingang hat, z.B. LG C9). Dann noch ein Hinweis: Egal ob ihr mit eurem internen Display spielt, oder mit dem Monitor (oder mit dem TV), nutzt immer die gleiche Auflösung. Sofern jedes Display die genutzte Einstellung/Auflösung unterstützt, bleibt diese erhalten. Sprich ihr müsst nur einmal die richtige Auflösung im Spiel auswählen, und schon bleibt sie für immer eingespeichert, egal mit welchem Display ihr spielt. -> das ist normalerweise nicht der Fall! Oder zumindest nicht bei jedem Spiel. Beispiel: Ihr zockt ein Spiel mit 1920x1080px an eurem Alienware-Display, also das vom Laptop. Dann schließt ihr ein Monitor oder TV an. Dort ist dann natürlich 1920x1080px auch ausgewählt. So wollt ihr wahrscheinlich an eurem 2560x1440px- oder 3840x2160px-Monitor (oder TV) aber nicht spielen, also erhöht ihr manuell in den Spiel-Einstellungen die Auflösung. Was passiert beim nächsten mal wenn ihr wieder am Alienware spielt? Richtig, dort wird dann wieder 1920x1080 gesetzt (weil eine höhere Auflösung vom internen Display ja nicht unterstützt wird) und beim nächsten mal Spielen am Monitor/TV müsst ihr die höhere Auflösung wieder manuell auswählen… nervig ohne Ende. Hier hilft euch DSR nun ungemein. Ihr spielt nun auch einfach am Alienware-Display bzw. eben überall mit 2560x1440px, 2880x1620px oder 3840x2160px, fertig. Welche Vorteile hat das Ganze also zusammengefasst? Optik: die Spiele sehen besser aus, für eine 2080 bietet sich in vielen Spielen 2560x1440px oder 2880x1620px an, damit hat man dann noch oft mindestens 60 fps. 3840x2160px solltet ihr nur in älteren oder nicht anfordernden Titeln auswählen, es sei denn ihr habt eine 3080 mit 150+ Watt oder unter 60 fps macht euch nichts aus (mir schon) Komfort: das Spiel merkt sich dauerhaft diese Auflösung. Wenn ihr wie schon gesagt ab und zu am internen Display spielt, und dann wieder am Monitor oder TV, müsst ihr bei vielen Spielen ständig wieder zwischen den verschiedenen Auflösungen wechseln (sofern ihr am Monitor oder TV eine höhere Auflösung verwenden wollt). Wenn ihr aber DSR aktiv habt, und bei allen Displays die gleiche Auflösung verwendet, bleibt diese dauerhaft eingespeichert und euch der ständige Wechsel der Auflösung in den Spiel-Settings erspart) Ihr könnt übrigens DSR aktiv haben, und wenn ihr den Monitor (oder TV) angeschlossen habt, nicht. Sprich die Nvidia Systemsteuerung unterscheidet hier je nach Display. Ihr könnt DSR natürlich auch dafür benutzen, um eurem schon höher aufgelösten 2560x1440px-Monitor 5120x2880px oder eurem 3840x2160px-Monitor 7680x4320px beizubringen… das kostet dann aber richtig Leistung... Welche Nachteile hat das Ganze? Ihr braucht natürlich mehr Leistung, habt also weniger fps. DSR verhält sich leistungstechnisch fast exakt genau so, wie als wenn ihr nativ eine höhere Auflösung hättet. Bei Spielen, die ihr konstant mit über 100 (oder 200) fps spielen wollt, z.B. Shooter wie CoD Modern Warfare oder Coldwar, empfiehlt es sich weiterhin die 1920x1080px-Auflösung zu nutzen (es sei denn ihr habt eine 3080 mit 150+ Watt, dann geht dort evtl. auch 2560x1440px). Aber für viele Spiele, die ihr z.B. in Third-Person mit Controller spielt, sind - zumindest nach meinem Geschmack - ca. 60-90 fps und 2560x1440px, 2880x1620px oder 3840x2160px die deutlich bessere Wahl als ca. 120 fps bei 1920x1080px. PS: Ich habe in dieser Anleitung bewusst keine Wörter wie QHD, 1440p, UHD, 4k usw. benutzt, weil manchen nicht jedes bekannt sein dürfte. Mit der stets ausgeschriebenen Auflösung, z.B. 2560x1440px, kann aber jeder was anfangen.
  7. Hallo Forenmitglieder, ich bin seit Freitag stolzer Besitzer eines Area 51m Laptops. Um meinen kleinen Arbeitsplatz (mein Arbeitszimmer ist nun ein Kinderzimmer) abzurunden, habe ich mir zu meinem Laptop von DELL eine Dockingstation Modell WD19 (130W) bestellt. Warum diese Dock: Vor allem wegen der Möglichkeit, ein Laptop das über USB-C angeschlossen ist über den Powerbutton zu starten, auch wenn das Notebook zugeklappt ist. Aber genau da liegt der Haken. Ich habe alles entsprechend der empfohlenen Vorgaben angeschlossen (bin in der IT tätig, also nicht ganz unbedarft) aber bei Herunterfahren des Laptops und drücken des Powerbuttons an der Dock tut sich mal... gar nix. Habe danach nach den USB-C Treibern für mein Area 51m geschaut und neu installiert, aber der Effekt bleibt der gleiche. Habe im BIOS auch Wake-On-USB aktiviert, aber auch das hat leider nichts gebracht. Habe nach einem Firmware-Update für die Dockingstation bei DELL gesucht, aber außer einem Audio-Treiber von Realtek wurde mir nichts weiteres angeboten. Aber vielleicht bin ich auch einfach zu blind? By the Way: Das BIOS / UEFI sieht ja ziemlich altbacken aus. Da es mein erstes AW-Gerät ist: Ist das normal? Sollte ich die Suchfunktion via google oder auch hier im Forum nicht richtig bedient haben: Entschuldigt bitte und gerne darauf hinweisen das es einen solchen Thread schon gibt. Kurze Fakten: BIOS-Firmware: 1.7.3 CPU: i7 8700 (8. Gen) RAM: 16GB SSD: 512GB HDD: 1TB GraKa: RTX 2700 OS: Windows 10, Build 1809 Für Eure Hilfe lieben Dank, Michael
  8. Hallo zusammen. Auf Nachfrage erstelle ich nochmal eine kurze Anleitung wie man seine Grafikkarte richtig einstellt, wenn man sich entschlossen hat ein unlocked vBios zu flashen. Ich werde das alles am Beispiel meiner 980m's erklären. Die Werte, die ich einstelle, sind nicht gemeingültig und funktionieren nicht bei allen Karten gleich. Wichtig: Ich übernehme (wie immer) keine Haftung. Das soll nur ein Leitfaden sein. Wenn man sich mit dem Thema unlocked vBios und OC beschäftigt muss einem auch klar sein, dass man damit ein gewisses Risiko eingeht. Das unlocked vBios: Dazu wie man überhaupt ein vBios auf seine Karte bekommt verweise ich auf meinen Thread den ich vor ein paar Tagen erstellt habe. Bei einem unlocked vBios sind (wie der Name schon vermuten lässt) die Grenzen freigeschaltet. Das betrifft Spannung, Takt, Speicher-Takt, Leistungsaufnahme und Temperaturlimit. Außerdem kann es sein, dass ein unlocked vBios standardmäßig einen anderen Takt bei einer anderen Spannung anlegt als mit den normalen vBios. Daher kann es dazu kommen, dass die Karte garnicht von Anfang an lauffähig ist, bzw. unter Last crashed. Um diese Einstellungen soll es in diesem Thread gehen. Was brauche ich dafür? Software Nvidia Inspector Windows Aufgabenplanung Furmark Ich erkläre hier am Beispiel des Nvidia Inspectors. Das ist die Oberfläche die ihr (so oder so ähnlich) seht, wenn ihr ein unlocked vBios geflashed habt. Eine 980m taktet normal mit 1128MHz. Bei Default Clock steht hier 1202MHz. Das ist die Übertaktung, die das vBios mitbringt. Um also ein Profil ohne Übertaktung zu haben musste ich um 75MHz nach unten korrigieren (gelb markiert). Auch das Powerlimit habe ich angehoben, damit die Karte nicht mehr drosselt. Gleichzeitig läuft die Karte im P0 (also höchster Power-State) bei dem vBios nur mit 1,000V was für meine Karten ebenfalls zuwenig ist. Ich musste um 0,025V erhöhen. Mit diesen Einstellung habe ich einen stabiles System. Wie finde ich die richtigen Einstellungen? Mithilfe des Furmark-Stresstests kann man sein Karte auslasten. Wenn man noch garnicht weiß wie sich die Karte verhält, testet man den Standardtakt der Karte. Den findet man ganz gut bei Notebookcheck heraus. Friert der Bildschirm ein oder stürzt der Rechner ab erhöht man die Spannung um 12,5mV (kleinster Schritt) und testet erneut. Diesen Vorgang wiederholt man so lange bis man die richtige Spannung gefunden hat und das System stabil läuft. Kommt man irgendwann bei 100mV mehr an und es läuft immer noch nichts wie es soll, dann ist noch was anderes nicht richtig (Treiber oder so). Wenn die Einstellungen im Furmark funktionieren heißt es jedoch nicht, dass sie überall funktionieren. Also testet man am besten mit einem grafisch anspruchsvollen Spiel und das über eine lange Zeit. Alternativ kann man auch den Stabilitätstest von 3D-Mark dafür nutzen. Wie übertakte ich? Das kann man in einem Wort zusammenfassen: LANGSAM Beim übertakten tastet man sich vorsichtig höher. Sprich man erhöht den Takt vorsichtig (ich mache maximal 10MHz Schritte) und erhöht dann die Spannung bis das System wieder stabil ist. Dann folgt der Langzeittest. Wenn das System weiter stabil bleibt und die Temperaturen noch niedrig sind kann man noch weiter erhöhen. Ich persönlich habe meine Wohlfühltemperatur der GPU's bei max. 80°C. Mehr möchte ich nicht haben. Ist aber jedem seine Sache. Kann ich Profile anlegen? Ja, man kann sich Profile erstellen. Dafür eignet sich der Nvidia Inspector recht gut, da man die Anwendung einfach mit anderen Attributen aufrufen kann. In meinem Fall habe ich eine Windows Aufgabe erstellt, die beim Systemstart den Nvidia Inspector öffnet und zwar mit folgenden Attributen: -setBaseClockOffset:0,0,-75 -setMemoryClockOffset:0,0,0 -setVoltageOffset:0,0,25000 -setPowerTarget:0,130 -setTempTarget:0,1,90 -setBaseClockOffset:1,0,-75 -setMemoryClockOffset:1,0,0 -setVoltageOffset:1,0,50000 -setPowerTarget:1,130 -setTempTarget:1,1,90 "-" Leitet ein neues Attribut ein. "set...." Ist der Wert den man setzen möchte "x,y,z" Die erste Ziffer steht für die Karte (bei nicht SLI-Systemen also immer 0). "x,y,z" Die zweite Ziffer steht steht für einen gesetzten Haken. In meinem Fall also nur bei Priorize Temperature 1, ansonsten 0. "x,y,z" Der dritte Wert ist der Wert den ihr einstellen wollt. Der Reihenfolge nach also in: MHz (Offset), MHz (Offset), mV (Offset), % (Absolut), °C (Absolut) Mit Hilfe der Windows Aufgabenplanung werden meine Karten stabil und ohne OC eingestellt und zwar bei jedem Systemstart ohne dass ich das bemerke. Um die Karte jetzt aktiv hochzutakten habe ich mit Makrotasten im AW-CC angelegt. Nach dem gleichen Prinzip wie in der Aufgabenplanung nur mit straffer abgestimmten Werten. Ich hoffe meine kleine Anleitung kann dem einen oder anderen helfen. @bluedragon Ich hoffe du kommst mit dieser Anleitung etwas weiter. Falls du noch fragen hast bitte gleich mit HWiNFO Log hier dazu schreiben. Dann können auch andere davon profitieren.
  9. Hi zusammen, ich wechsle bald in eine neue Firma und darf mir da natürlich ein neues Arbeitsgerät aussuchen. Aktuell kenne ich den Rahmen noch nicht, daher würde ich den auch erstmal offen halten. Was könnt ihr empfehlen? Ich bin für alle Vorschläge offen. Das ich nur mit Microsoft Technologien arbeite sollte es definitiv auch ein Windows 10 Notebook sein. Folgende Modelle habe ich im Kopf: - Dell XPS 15 - Dell XPS 17 - Surface Book 3 Danke für eure Tipps
  10. In der Vergangenheit kam es regelmäßig vor, dass Fragen mit irgendwelchen Temperatur- oder Taktwerten gestellt wurden. Um auf die Fragen gezielt eingehen zu können und überhaupt das ganze irgendwie sinnvoll zu bewerten, bedarf es oft weiterer Informationen. Ein dafür äußerst hilfreiches Tool ist HWinfo64. Damit lässt sich fast alles überwachen und das meiste bequem einstellen. Aus meiner Sicht ein Must-Have Tool, was auf keinem Rechner fehlen darf. Die Vergangenheit hat auch gezeigt, dass einige User mit dem Umgang Probleme haben oder bestimmte Werte falsch interpretiert werden. Deshalb wurde es schon lange Zeit für den HWinfo-Thread. 1. Installation Nicht selten kam die Frage auf: "Was muss ich auswählen?/ Welche Version muss ich nehmen?". Daher nehme diesen Punkt jetzt mal mit auf. Die Software lässt sich kostenlos auf der HWinfo-Homepage, im Download-Bereich runterladen. Die Version, die ich dafür immer nehme, ist Local (U.S.). Zur Installation gibt es nicht viel zu sagen. Ist halt eine Standard-Installation, wo man eigentlich nichts falsch machen kann. 2. Ansicht-Modus, Layout und Einstellungen Anfangs können einem die vielen Ansichtsmöglichkeiten, Einstellungen und Werte erschlagen und man weiß gar nicht wo anfangen soll. Gerade wenn sich das Layout im "Sensors only" noch in der Default-Ansicht befindet und einfach alles angezeigt wird. Ich gehe auf jede Ansicht kurz ein und nenne einige Gründe, wann welche Ansicht zu empfehlen ist. 2.1 Ansicht "all" Sobald man HWinfo installiert hat und es startet, fragt das Tool in welcher Ansicht man sich die Daten anzeigen lassen will. Wählt man gar nichts aus bzw. schränkt nichts ein, sprich keinen Haken bei Summary only und Sensors only, wird eine erweiterte Summary-Ansicht angezeigt. Das ganze sieht dann so aus: Man hat verschiedene Fenster, wo sich verschiedene Informationen ablesen lassen. Gerade die linke Anzeige kann sehr hilfreich sein, wenn man beispielsweise wissen möchte, welches Display man verbaut hat (sehr beliebte Frage bei Area51m) oder Detailinformationen über den RAM. 2.2 Ansicht "Summary only" Diese Ansicht ist eine Zusammenfassung (engl. Summary) aller wichtigen Daten. Bedeutet, welche CPU, GPU, welcher RAM, welche Festplatten-Konfig usw. ist verbaut + ein kleines Fenster, was die CPU so treibt. Ein beliebtes Beispiel, wo die angezeigten Informationen falsch interpretiert werden, ist der Arbeitsspeicher. Die Ansicht zeigt hier zwei Werte: Punkt 1 bezieht sich dabei nur auf den RAM und welche Profile auf seinem SPD-Chip hinterlegt sind. Das hat erstmal rein gar nichts damit zu tun, wie der Speicher im Notebook arbeitet. Man kann es mit den m.2 SSDs vergleichen. Nur weil 500 GB angezeigt werden, heißt es nicht, dass auch 500GB belegt sind. Genau dafür gibt es Punkt 2. Hier wird angezeigt, wie der eingesetzte RAM im Notebook arbeitet und welches Profil angelegt ist. In meinem Fall taktet der RAM auf 2.666 MHz mit den entsprechenden Timings. Der Takt wird oft als "Hälfte (1.333)" angezeigt und muss mal zwei multipliziert werden. Der Grund dafür ist, dass ein DDR = Double Data Rate Speicher zwei Signale pro Taktzyklus anlegt. Im Area51m, wo der RAM maximal auf 2.400 MHz läuft, steht dann dementsprechend der Taktwert auf 1.200 Mhz. 2.3 Ansicht "Sensors only" Hierbei handelt es sich über detaillierte Ansicht aller Sensoren und Werte mit Zeitangabe. Aus meiner Sicht, ist das die wichtigste Ansicht, da sich hier viele Rückschlüsse ziehen und Fehler, hohe Temperaturen, Leistung usw. gut bewerten lassen. Um diese Ansicht zu starten, einfach auf "Sensors only" klicken und Run. Anfangs im Standard-Layout bekommt man eine unübersichtliche Vielzahl an Informationen angezeigt. In der Regel braucht man nie derart viele Informationen. Glücklicherweise bietet HWinfo die Möglichkeit das Layout nach seinen Wünschen zu gestalten. Für die Temperatur- und Leistungsbewertung habe ich mein Layout wie folgt angepasst: Damit die Ansicht am Ende so aussieht, kann man mit Rechtsklick --> Kontextmenü --> "Hide" viele Werte ausblenden, die man nicht braucht. Mit "Rename" kann man die Werte umbenennen. Je nach Model, werden die Lüfter mal angezeigt und mal nicht. Werden die Lüfter nicht angezeigt, hat man die Möglichkeit über die Settings, zweiter Reiter Safety, durch das Deaktivieren des EC Supports, dass die Lüfter angezeigt werden. Soweit mir bekannt, ist das nur beim Area51m so. Beim AW17 R4/ R5 werden die Lüfter von Anfang an erkannt und tauchen auch in der Ansicht auf. Beim m15 & m17 R1 habe ich es nicht geschafft, dass mir die Lüfter angezeigt werden. Das liegt höchstwahrscheinlich daran, dass speziell Notebook-Mainboards "nicht bekannte" Controller einsetzen und HWinfo keine Informationen darüber bekommt oder diese nicht richtig interpretieren/ auslesen kann. Manchmal hilft ein Ausprobieren mit verschiedenen Einstellungen. Wo die Lüfter ebenfalls nicht anzeigt werden, ist wenn man HWinfo startet, die Lüfter aber still stehen (0 rpm). Sobald die Lüfter anlaufen wird ein Signal (rpm) ausgegeben und HWinfo führt sie dann in der Liste auf. Das kommt oft vor, wenn man sein Notebook im idle mit einem Kühler betreibt. 3. Verstehen Leistungsangaben und Temperaturwerte stehen unmittelbar mit anderen Faktoren im Verhältnis. Möchte man beispielsweise Temperaturen bewerten, so sind andere Werte ebenso zu berücksichtigen. Deshalb sind Antworten auf allgemeine Fragen wie "...sind die Temperaturen in Ordnung?" ohne Angabe weiterer Faktoren, die damit zusammenhängen, höchstens eine gutgemeinte Schätzung. Wenn man sein Layout mit "hide" und "rename" angepasst hat, sind folgende Werte mindestens zu empfehlen: 3.1 Verstehen der Werte Ganz oben in der Leiste finden sich verschiedene Angaben zur Zeiterfassung: Current: Aktueller Wert Minimum: Kleinster Wert in der gemessen Zeit Maximum: Höchster Wert in der gemessen Zeit Average: Durchschnittlicher Wert in der gemessen Zeit Punkt 1: Clock-Ratio Hierbei handelt es sich um den Multiplikator (kurz Multi), der zusammen mit dem Bus-Takt (üblicherweise 100 MHz FSB) den Kern-Takt ergibt. In dem Beispiel ist Multi 46x mal 100 MHz = 4.600 MHz/ 4,6 GHz. Durch die kleinen Zahlen ist dieser Wert schnell und einfach abgelesen. Punkt 2: Kern-Temperaturen Der Punkt sollte wohl selbsterklärend sein. Punkt 3: Voltage-Offset Dieser Punkt ist wichtig, um sein Undervolting zu überwachen. Gerne werden diese beiden Werte verallgemeinert oder gleichgesetzt, jedoch ist das nicht richtig. Wenn man beispielsweise mit ThrottleStop undervoltet, bezieht sich IA Voltage Offset im TS auf CPU Core UV und CLR Voltage Offset auf CPU Cache UV. Beim Undervolting sollten CPU Core und CPU Cache immer gleich hoch undervoltet werden, da in dem Fall immer nur der geringste Wert tatsächlich von der CPU angenommen wird. Undervoltet man beispielsweise CPU Core mit -150mV und CPU Cache mit -100mV, wird für die CPU insgesamt nur die -100mV übernommen. Punkt 4: CPU Package Power Ein besonders wichtiger Wert wenn man Leistung und Temperaturen bewerten möchte, wenn nicht sogar mit der wichtigste überhaupt. CPU Package Power zeigt an, was tatsächlich an Strom/ Leistung durch die CPU gegangen ist. Dieser Wert ist auch bekannt als TDP Leistung einer CPU. Zum Thema TDP werde ich mich hier jetzt nicht allzu detailliert äußern. Nur so viel: Die CPU ist mit 45w TDP Leistung spezifiziert und hätte ich die CPU nach Intel's Mess-Spezifikation mit Basistakt 2,9 GHz und 100%iger CPU-Auslastung betrieben, wäre ich auch irgendwo bei 45w gelandet. Da ich die CPU aber außerhalb der Intel-Spezifikation betreibe, ist es nicht überraschend, dass die Leistungsaufnahme bis sogar 95,913w im max hochging. Je nach Benchmark und Spiel wird die CPU verschiedenen hoch ausgelastet. Dadurch ergeben sich logischerweise auch andere CPU-Power Werte. Fließt weniger Strom durch die CPU, läuft sie natürlich kühler. Möchte man seine Temperaturen vergleichen, ist dieser Wert absolut wichtig zu beachten. Denn nur, wenn die gleiche Leistung generiert wurde, kann man überhaupt verschiedene Logs miteinander vergleichen. Zu einem Beispiel komm ich im Punkt 3.2. Punk 5: PCH und RAM Temperaturwerte des PCH und RAM. Sollte eigentlich auch selbsterklärend sein. Interessant wird dieser Punkt, wenn man beispielsweise einen PCH-Mod verbaut oder das System Freezes zeigt, welches sich auf zu hohe PCH-Temps zurückführen lässt. Der m15 R1, flach auf dem Tisch, im Out of the box Zustand ist da so ein Kandidat. Punkt 6: Lüfter Auch dieser Punkt sollte selbsterklärend sein. Jedoch ist er wichtig, wenn man Temperaturen vergleichen oder bewerten möchte. Drehen die Lüfter weniger, wird auch weniger Luft umgesetzt, was die Kühlleistung vermindert. Das sich die Lautstärke der Lüfter mit steigender RPM-Drehzahl erhöht, muss nicht extra erwähnt werden. Das sind alles so Faktoren, die bei der Bewertung wichtig sind. Punkt 7: SSD & HDD Sollte ebenfalls selbsterklärend sein. Auch diese Werte können unter bestimmten Voraussetzungen interessant und wichtig sein. Beispielsweise wenn man einen SSD-Kühler oder/ und zusätzlich einen externen Notebook-Kühler einsetzt. Natürlich auch wenn man die Festplatten mit großen Kopier-/ Schreibaufgaben belastet. Punkt 8: GPU Bei der Grafikkarte sollten die meisten Werte auch eigentlich klar sein. Anmerken muss ich hier ebenfalls den Punkt mit der Leistung und dem Strom (GPU Power). Auch das ist ähnlich zu vergleichen wie mit der CPU Package Power. Wird mehr Leistung gefordert, fließt auch mehr Strom, was logischerweise zur Temperaturerhöhung führt. Gerade wenn man eine "Shared-Heatsink-Konstruktion" hat, beeinflusst die Temperatur des einen Chips auch immer den anderen. Je nach Model, fällt das mal höher oder geringer aus. Punkt 9: Listenanzeige Mit diesem Button kann man sich die Listenanzeige auf mehrere Seiten ziehen. Ich wollte es mal erwähnen, bevor die Frage wieder auftaucht wie man die Liste auf mehrere Seiten bekommt. Punkt 10: Zeit Anzeige der gemessenen Zeit. Dieser Punkt ist besonders wichtig für das Loggen, dazu aber mehr im Punkt 3.2. Punkt 11: Reset-Button Eine Funktion zum resetten aller Werte. Zusammen mit dem Punkt 10 und dem Loggen eine wichtige Funktion. Zusätzliches: Noch einige Punkte, die hier jetzt nicht aufgelistet sind. Powerlimit 1 & 2: Die PL's tauchen normalerweise unter Punkt 4 auf. Es kann aber durch vorkommen, dass der Punkt hin und wieder verschwindet, so wie in meinem Chart halt. Die PL's begrenzen die Maximal-Leistung, die sich die CPU genehmigen darf. Je nach Lüfterprofil und Temperatur ändern sich die Limits. Meist ist das Setting so ausgelegt, dass mit erhöhter Lüfterdrehzahl auch die Powerlimits angehoben werden. Sprich, mit mehr Kühlleistung, darf sich die CPU auch mehr Leistung erlauben. Läuft man ins Thermal Throttling (Thermale Grenze 100°C), kann es vorkommen, dass die PL dynamisch angepasst und abgesenkt werden. Powerlimit 1 bezieht sich dabei auf das "Long Term Power Boost Window". Also das, was sich die CPU theoretisch die ganze Zeit gönnen darf, sofern sich nicht zu heiß wird. Powerlimit 2 bezieht sich dabei auf das "Short Term Power Boost Window". Also das, was sich die CPU im Boost genehmigen darf. Als Beispiel: Beim m15 R1 ist der Short Boost auf 30 Sekunden begrenzt und der Höchsttakt auf 4,8 GHz. Unter dem höchsten Lüfterprofil (Lüfter 100%), wird das Powerlimit auf PL1-78w/ PL2-90w angehoben. Wobei die All-Core Leistung mit 4,2 GHz sich ausschließlich nur auf PL1 dann bezieht. Distance to TjMax: Ein Punkt, der hin und wieder mal gefragt wird, ist TjMax. TjMax steht dabei für "Distance to Maximum Junction Temperature" (Wikipedia). Es gibt verschiedene Interpretationen wie dieser Wert verstanden oder gemessen wird. Es hängt zum einen von der eingesetzten Software ab und zum anderen auch ob CPU oder GPU gemeint ist. Da gibt's verschiedene Ansichtsweisen. Vereinfacht gesagt, HWinfo zeigt euch mit diesem Wert an, wie viel Luft (Headroom) noch im Temperaturbereich ist, bevor gedrosselt wird. Standardmäßig drosseln die CPUs bei 100°C. Jetzt im Beispiel oben hatte ich auf Core #0 beim Spielen 69°C im Durchschnitt. Distance to TjMax ist somit 31°C. Addiert man beide Werte zusammen, kommt man wieder auf 100°C. Bedeutet also soviel wie, dass ich theoretisch noch ein bisschen die Leistung aufdrehen könnte. Diese Anzeige kann schon praktisch sein, wenn man wissen möchte wie viel Spielraum man mit einem Setting bei Spiel A und wie viel bei Spiel B hat. Da verschiedene Spiele das System unterschiedlich stark belasten. Fehler-/ Warnmeldungen Ich werde hier jetzt nur die wichtigsten ansprechen, da der Beitrag ansonsten explodiert und ich bis morgen hier dran sitze. Der Begriff: "PROCHOT" steht für Processor Hot und taucht meist zusammen mit Thermal Limit auf, was bei den Notebooks meist bei 90-100°C erfolgt, je nach dem welches Limit gesetzt ist. Im Desktop-Bereich kann man thermale Grenzen meist selbst ein einem gewissen Rahmen bestimmten. Daher können zwei, auf den ersten Blick, gleiche Meldung sinnvoll erscheinen, da eine Meldung sich auf die Spezifikation der CPU bezieht und die andere auf das Mainboard-Setting. Der Begriff "Powerlimit exceeded" wird auch immer wieder mal gefragt. Diese Meldung tritt auf, wenn man an oder über sein Powerlimit kommt. Beispiel: Angenommen mein Notebook hat im Lüfterprofil "Silent" ein Powerlimit von PL1-45w/ PL2-60w. Mit ThrottleStop übertakte ich die CPU leicht und starte einen Cinebench. Die CPU gibt Vollgas und zieht so viel Strom, dass sie problemlos über die Powerlimits 45w/ 60w kommt. Das Mainboard, genauer gesagt der Voltage-Controller, der durch das BIOS, aufgrund des Lüfterprofils, die Powerlimits beschränkt, drosselt die Stromzufuhr. Kurz gesagt, erreichen der Powerlimits = Powelimit exceeded. Die CPU wird gezwungen sich runterzutakten, damit sie mit dem begrenzten Strombedarf wieder klar kommt. 3.2 Verstehen der Zusammenhänge In diesem Punkt führe ich verschiedene Beispiele auf, wie die Daten in Beziehung stehen und auf was zu achten ist, wenn man die richtigen Rückschlüsse ziehen will. Um die CPU-Temperaturen bewerten zu können braucht man mindestens drei Kriterien: CPU Package Power Lüfterdrehzahl Zeit Ist einer dieser Faktoren unbekannt, kann man keine logischen Rückschlüsse auf die Kühlleistung schließen. Man kann höchstens versuchen irgendwas zu schätzen, aber das war's auch schon. Natürlich sind noch andere Parameter wichtig, um eine Vergleichbarkeit bzw. genauere Bewertbarkeit zu schaffen, aber die drei oben genannten sind auch meiner Sicht die wichtigsten. Andere wichtige Faktoren sind: Log Start & Log Ende durchschnittlich gehaltener Takt Außentemperatur Undervolting Wärmeleitmittel Modding & externe Kühler Powerlimits Je nach dem was oder wie man bewerten möchte ist auch der Start- und Endpunkt des Logs enorm wichtig, weil man sonst mit idle-Werten seine Zahlen verfälscht/ schönt. Dann, zwischen den einzelnen CPUs/ GPUs gibt dann auch noch mal Unterschiede. Sprich, nicht jeder 9900K oder RTX 2080 performt gleich (auf Temps bezogen), jedoch jetzt für das Beispiel, lasse ich mal solche Faktoren außen vor. Zur Verdeutlichung was ich meine, hier mal zwei HWinfo Logs von meinem R5 im Vergleich. Im ersten Beispiel habe ich ca. 45 Minuten FC5 New Dawn gespielt. Der Log beläuft sich jedoch auf ca. 35 Minuten, weil ich immer ca. 10-15 Minuten warm spiele bevor ich den Log anfange. Dazu starte ich HWinfo und das Spiel. Nach der Warmlaufphase wechsel ich kurz auf HWinfo und resette die Werte (Uhr-Symbol). So kann ich sicher sein, dass ich meine eigenen Werte nicht mit Idle-Temps verfälsche. Später gehe ich dann während des Spiels wieder kurz auf HWinfo und mach dann den Screenshot. So bekommt man dann die reinen Ingame-Werte. Ein möglicher Log kann wie folgt aussehen: und jetzt noch mal ein 3 Minuten Log mit 5,3 GHz all Core: Deswegen ist der Takt für Temperatur-Bewertung zunächst erstmal uninteressant, weil Package Power + Kühlung (Lüfter) + Zeit die Temperaturen bestimmen. Deswegen ist Cinebench nicht unbedingt geeignet um Temperaturen zu bewerten. Der Benchmark ist einfach zu kurz und testet den absoluten Worst-Case für die CPU, was mit Gaming-Leistung/ Temperaturen nicht viel zu tun hat. Möchte man seine Werte später mit anderen Geräten vergleichen, sind auch die anderen Parameter interessant, damit man überhaupt eine Vergleichbarkeit schaffen kann. Beispielweise man möchte wissen, ob die Wärmeleitpaste MX-4 besser performt als Kryonaut oder ob sich Undervolting lohnt bzw. wie viel. ------------------------------------------------------------ Schlusswort Insgesamt betrachtet ist das natürlich schon recht viel Info und bei weitem nicht alles, was man so mit HWinfo noch machen kann. Dennoch hoffe ich, dass der Beitrag für den ein oder anderen interessant oder hilfreich war. Wenn ich noch etwas vergessen habe oder nicht richtig erklärt, sagt mir bitte bescheid. Dann ändere ich den Beitrag an der Stelle.
  11. Tach zusammen VR ist ja zur Zeit in aller Munde und das nächste grpße Ding! --> nein Spaß. VR is ne Niche, aber eine ausgesprochen Interessante. Und da AW Geräte ebenso eine Niche sind passt das doch ganz gut. Ich wollte einfach mal einen Erfahrungsthread starten zum Thema VR. Vielleicht ist das ja für den einen oder anderen ganz interessant? Gibts hier im Forum VR Verrückte die schon länger dabei sind (oder neu dabei sind) und mal Bock auf ein paar Spielchen hätten? Den ersten Kontakt mit VR hatte ich letztens bei einem Kumpel und seiner Oculus Quest. Da hab ich SuperHot VR und Beatsaber gespielt. Fand ich ja Mega ^^ also hab ich mir im Black Friday eine Rift S geschossen. Bei 339 Euro kann man das mal testen. Spiele gabs ja im Steamsale und Black Friday Deals reichlich günstig zur Auswahl. in Abstimmung mit meinem besten Kumpel haben wir uns dann ein paar Spiele für Multiplayer geholt und ich mir noch welche für den Singleplayer. SP: Super Hot VR, Asgards Wrath, Thalos Principle MP: Onward, Beatsaber, Serious Sam VR Collection, Sprint Vector, Seeking Dawn An Hardware steht mir mein A51m mit 9900k / RTX2080 und ein AW17R5 mit i98950HK / GTX 1080 zur Verfügung. Da biste doch gut aufgestellt für VR -> dachte ich zumindest. Getestet hab ich die Brille bisher leider nur mit dem 17R5. Hier muss ich bei einigen Spielen schon auf mittlere Grafiksettings runter damit es wirklich flüssig ist O.O Abgesehen davon war es bei mir Plug and Play. Nur den Grafiktreiber musste ich aktualisieren. Von der Rift S bin ich positiv überrascht. Die Bildqualität ist I.O, das Tracking funktioniert wirklich zuverlässig (man muss keine Boxen aufstellen) und das Headset ist auch nach 4h noch bequem. Bei mir machen sich die 8Hz die die Rift s zur Quest hat positiv bemerkbar. Ich habe mit der S spürbar weniger Motion Sickness Alles in allem hab ich für die 339 Euro so viel Spaß am PC wie schon lange nicht mehr. Wie sind eure Erfahrungen so? VR ein Thema oder eher nicht so? Gruß
  12. Dieses Thema ist schon relativ lange bekannt und wird auch schon länger in diversen Forenkreisen diskutiert. In unser Forum hat es Plundervolt, zumindest bis jetzt, noch nicht geschafft, da die daraus resultierenden Nachteile aktuell keine Alienware-Geräte betreffen, jedenfalls noch. Da sich das aber in Zukunft ändern könnte und das zum Teil für uns erhebliche Nachteile hat, wollte ich das Thema zumindest schon mal ansprechen. Was genau ist Plundervolt? Plundervolt bezeichnet eine Sicherheitslücke bei Intel Prozessoren, wodurch es möglich ist Schadcode auszuführen. Die Sicherheitslücke betrifft Intel's Software Guard Extensions, abgekürzt auch SGX genannt. Dieser Punkt befindet sich bei uns im BIOS unter dem Reiter Advanced. Welche Nachteile hat es für mich? Intel und diverse andere Hersteller haben schon reagiert und bieten BIOS-Updates an, die wie üblich, irgendwelche Sicherheitslücken schließen. Das Problem ist dabei, dass man durch so ein Update, die Möglichkeit verliert, irgendwelche Änderungen an der CPU über ThrottleStop oder Intel XTU vorzunehmen. Natürlich auch über's BIOS selbst. Was bedeutet, dass man unter anderem nicht mehr Undervolten oder andere Voltage-/ Core-Settings durchführen kann. Ich kann jetzt nicht sagen, welche Hersteller genau damit schon angefangen haben. Soweit ich weiß, trifft das zumindest schon mal auf HP zu. User mit den Omen Notebooks kotzen sich in Foren (z.B. NBRF) darüber aus, dass die CPU ohne undervolting deutlich heißer läuft (logisch) und es keine Möglichkeit mehr gibt, das Setting mit dem SGX Update anzupassen. Außer man downgraded die BIOS-Versoin, sofern das möglich ist. Mittlerweile finden sich auch immer mehr Beiträge im Alienware-Bereich des NBRF, wo dieser Punkt jedesmal nach einem BIOS Update gefragt wird. -Beispiel- Wenn ich jetzt an meinen R5 und dem i9-8950HK denke, dann wäre so eine Beschränkung ziemlich besch***en für mein System und ich denke, ich spreche da nicht nur für mich alleine. Das BIOS Updates immer mit einer gewissen Vorsicht zu genießen sind, ist an sich nichts neues. Wenn jetzt aber solche Einschränkungen mit den BIOS Updates kommen, würde ich mir ein Update zwei mal überlegen. Deshalb wollte ich schon mal sicherheitshalber drauf hinweisen. Wer sich in das Thema weiter einlesen möchte und detaillierte Informationen sucht, kann sich folgende Links anschauen: Weiterführende Links und Quellen: - Plundervolt.com - ZDnet.com (Plundervolt) - Bob (Youtube) - Intel Software Guard eXtensions (Intel)
  13. Hallo zusammen, seit kurzem habe ich WLAN Problem, heißt nach jedem Neustart kein Internet. Workaround ist ein manuelles Deaktivieren und Aktivieren der WLAN Verbindung, damit WLAN wieder geht. Einen Hardware Defekt habe ich erstmal ausgeschlossen und die naheliegendste Vermutung war ein Software Update vor kurzem. Ja das Windows Update KB4023057 war schuld, nur kann ich es aus dem Updateverlauf nicht manuell deinstallieren. Was für ein Scheiß! Danke Mircrosoft, daß wir schon lange nicht mehr Herr über unser eigenes System sind. Das Problem scheint bekannt zu sein: "So called update KB4023057 kills my internet. How to stop it from ..." Was mich jedoch wundert, das Update kam bei mir am 22.11.2020, der Link mit identischem KB-Code verweist jedoch auf ein Update aus 2018. Neuere Windows Updates fangen für gewöhnlich bereits mit einer KB45xxxxx an. Hat jemand von euch das selbe Problem bzw. eine Idee? Notfalls wäre mal wieder ne Clean Installation fällig. Danke
  14. Da es gerade bei bastellustigen Alienwarebenutzern immer wieder dazu kommt, dass Grafikkarten in Notebooks verbaut werden die Dell nicht nativ angeboten hatte, werden Änderungen notwendig um den Treiber von nVidia installieren zu können. Fast genauso häufig wie dieser Treiber benötigt wird ist auch die Frage danach wie man den Treiber anpasst. Fangen wir jedoch einen Schritt vorher an. Wieso muss ein passender Treiber überhaupt erst manuell angepasst werden um installiert zu werden? Hier liegt die Verantwortung bei nVidia und deren Hardwareerkennung. Der Treiber kontrolliert leider nicht nur die HardwareID der Grafikkarte sondern die Kombination aus Notebook und Karte. Wenn nun eine dieser Kombinationen vom Hersteller, in unserem Fall Dell, nicht an nVidia gemeldet wurde taucht die ID nicht in der Erkennung auf. Und genau hier setzen wir nun an und holen dies nach. -Wie ist die HardwareID aufgebaut? -Welche Datei muss ich ändern? -Welche Änderungen müssen vorgenommen werden? -Muss ich sonst noch etwas beachten? Wie ist die HardwareID aufgebaut? Die Hardware-ID der Grafikkarte finden wir im Geräte-Manager. Wenn noch kein Treiber installiert ist heißt unsere Grafikkarte dort "Standart-VGA", "Microsoft-Standart-Anzeigegerät" oder ähnliches. Dieser Name ändert sich später durch den Treiber. Um dieses Tutorial möglichst leicht verständlich und nachvollziehbar zu gestallten ist es nicht unwichtig zu wissen wie die benötigte HardwareID aufgebaut ist. Nehmen wir uns als Beispiel eine GTX680m in einem M17xR2. PCI\VEN_10DE&DEV_11A0&SUBSYS_043A1028 VEN_10DE = nVidia DEV_11A0 = GTX 680M 043A = M17xR2 1028 = Dell Welche Datei muss ich ändern? Nachdem wir versucht haben den neuen Treiber von nVidia zu installieren und dieser Versuch abgebrochen wurde findet sich der bereits entpackte Treiber auf der Festplatte, meist unter C:\NVIDIA\DisplayDriver\VERSION\Win8_WinVista_Win7_64\International\Display.Driver\ In diesem Ordner befinden sich u.a. folgende INF-Dateien. nvaci.inf Acer, Gateway nvami.inf Asus nvaoi.inf Apple nvbli.inf HP nvcti.inf Compal nvcvi.inf Clevo nvdmi.inf Dell nvfmi.inf Fujitsu nvfui.inf Siemens nvhmi.inf HP nvloi.inf LG nvlti.inf Lenovo nvmi.inf MSI nvqni.inf NEC nvszci.inf Sony nvtdi.inf Toshiba Qosmio nvtsi.inf Toshiba Welche Datei hiervon wir nun ändern ist prizipiell egal, denn bei der Installation werden ohnehin alle Dateien nach einer passenden HardwareID durchforstet. Der Ordnung halber verwende ich jedoch die "nvdmi.inf". Welche Änderungen müssen vorgenommen werden? Kommen wir nun zum Kernthema. Es sind nur zwei Zeilen die wir der Datei hinzufügen müssen. Die erste Zeile sagt dem Treiber, dass unsere HardwareID kompatibel ist. Um die Stelle der ersten Änderung zu finden ist es wichtig zu wissen welches Betriebssystem verwendet wird. Sucht jeweils die Zeile die zu eurem OS passt. 1.1 Vista [NVIDIA_SetA_Devices.NTamd64.6.0] 1.2 Win7 [NVIDIA_SetA_Devices.NTamd64.6.1] 1.3 Win8 [NVIDIA_SetA_Devices.NTamd64.6.2] 1.4 Win8.1 [NVIDIA_SetA_Devices.NTamd64.6.3] In der Zeile darunter tragen wir nun folgendes ein: %NVIDIA_DEV.11A0.043A.1028% = Section033, PCI\VEN_10DE&DEV_11A0&SUBSYS_043A1028 Natürlich müsst ihr diese Zeile euerer HardwareID entsprechend anpassen. Die zweite Zeile die wir ändern sagt dem Treiber wie er die Karte anschließend benennen soll. Sucht die folgende Zeilen (OS ist dieses mal egal): DiskID1 = "NVIDIA Windows (64 bit) Driver Library Installation Disk 1" NVIDIA = "NVIDIA" NVIDIA_A = "NVIDIA" In der Zeile darunter tragen wir nun unsere Karte ein. In unserem Beispiel wäre dies: NVIDIA_DEV.11A0.043A.1028 = "NVIDIA Tuschkasten GTX 680M" Auch diese Zeile muss etsprechend eurer HardwareID angepasst werden. Anschließend müssen wir nur noch die Datei speichern und die Installation neu starten. Hierzu folgende Datei ausführen: C:\NVIDIA\DisplayDriver\VERSION\Win8_WinVista_Win7_64\International\setup.exe Muss ich sonst noch etwas beachten? Da der Treiber nun modifiziert ist stimmt er nicht mehr mit der digitalen Signatur überein. Bei Vista und Win7 ist dies nicht weiter schlimm. Hier muss man nur bestätigen, dass der Treiber dennoch installiert werden soll. Ab Win8 hingegen muss zuerst die Installation von nicht signierten Treibern zugelassen werden. Hierzu die Eingabeaufforderung öffnen (WinTaste+X) und folgendes eingeben: bcdedit /set {current} testsigning yes Danch Windows neu starten und den Treiber installieren. Um die Installation nicht signierter Treiber wieder zu unterbinden erneut die Eingabeaufforderung öffnen und folgendes eingeben: bcdedit /set {current} testsigning no Auch diese Änderung wird erst nach einem Neustart wirksam.
  15. Hallo liebe Community, wie der Titel schon sagt bin ich auf der Suche nach einem Laptop Marke Alienware, am besten 17 Zoll bzw. M 17? Leider tue ich mich bei der Konfiguration etwas schwer. Zu mir; Ich arbeite ca 8-10 Stunden am Tag vom Laptop aus, bin Webmaster sowie Grafikdesigner (jedoch kein Home-Office, sonst hätte ich mir natürlich nen Tower gegönnt). Nach der Arbeit zocke ich ganz gerne schon mal einige Games, aus diesem Grund möchte ich mir einen Laptop holen den ich für all das gesammelt benutzen kann, statt immer zwei getrennte Plattformen nutzen zu müssen. Der Laptop sollte ebenfalls ausreichend Grafikleistung haben um mit einem Controller verbunden einen 65" Fernseher per HDMI Kabel (1080p) bespielen zu können.. Falls ich da ganz falsch von meinen Vorstellungen liege, bitte belehrt mich! Erstmal vielen lieben Dank! P.S: Ist die 4k Option bei den Monitoren sinnvoll? Denke das das für einige meiner Designaufgaben Sinn machen könnte, gezockt würde ja hauptsächlich über den Fernseher aus..
  16. Auf der Suche nach der Ursache von Fehlern oder Problemen wie Rucklern/Freezes bei Spielen oder Spulenfiepen wird sich oft über VRM, Powerstages, MOSFETs, VRAM, Chokes usw. unterhalten. Nicht jeder weiß was diese Begriffe bedeuten und vor allem, wo sie auf dem Board sitzen und was sie eigentlich für Aufgaben haben. Gerade für Besitzer eines Gaming-Notebooks, die ihr System besser verstehen wollen, könnte der Thread eine gute Hilfe sein. Da ich mich gerne mit der Hardware (und Kühlung) beschäftige, habe ich mir gedacht, dass ich mir die Mühe mache und einen ausführlichen Beitrag zu dem Thema erstelle. Zusätzlich wollte ich noch ein paar Begriffe erläutern, die hier oft in den Beiträgen erwähnt werden. Gerade für Neulinge, die sich noch nicht lange mit dem Thema beschäftigen, kann das Fach-Chinesisch eine Herausforderung sein. So hat man gleich den Vorteil, dass man in zukünftigen Beiträgen nicht alles erklären braucht, sondern einfach auf den Thread hier verlinkt. Eine Sache gleich vorweg. Ich weiß auch nicht alles, versuche aber das was ich weiß, so richtig wie möglich zu beschreiben. Nehmt's mir also nicht übel, wenn vielleicht die ein oder andere Info nicht richtig ist. Gerade im Bezug auf das Mainboard sind offizielle Informationen kaum vorhanden. Dazu später aber noch mal mehr. Manchmal sind meine Quellen auch nicht immer richtig. Wenn jemand also etwas richtig stellen möchte, freue mich natürlich über Kritik. Schließlich lernt man davon nur. Über positives Feedback freue ich mich natürlich auch^^. PCB Dieser Begriff steht für "Printed Circuit Board". Im Grunde beschreibt es einfach die Platine auf dem die Chips und die anderen Komponenten sitzen. Also jede Grafikkarte, jedes Mainboard, RAM-Riegel ist/ hat ein PCB. Unser Notebook-Mainboard ist ein sogenanntes Multi-Layer PCB. Das bedeutet, das die Leiterbahnen nicht nur ober- und unterhalb auf dem Board liegen, sondern auch da zwischen auf mehreren Schichten. Aus wie viel Schichten genau das AW-Board besteht, konnte ich leider nicht rausfinden. Ich nehme an, dass es zwischen 10 und 20 Schichten liegen müsste. Aktuelle High-Rnf Grafikkarten liegen bei 15 Layern und mehr. (Link Wikipedia) BGA Auch ein Begriff, der hier öfter fällt. BGA steht für "Ball Grid Array" und beschreibt das Verfahren wie Chips (GPU, CPU, VRAM, etc) aufs PCB gebracht werden. In Forenkreises meint man mit einem BGA-Notebook, dass die wichtigsten Komponenten wie CPU und GPU festgelötet und somit nicht austauschbar sind. Zumindest nicht so einfach. Es hat jedoch den Vorteil, dass sich ein besonders flaches PCB realisieren lässt und somit auch die super flachen Notebooks. Als Beispiel: vor der Montage sieht ein GDDR5 Speicher-Chip und ein Intel Core i7-7820HK wie folgt aus: Wie die Kügelchen auf den Chip kommen, kann man hier in dem Video sehen. (Link Wikipedia BGA) DIE Als DIE bezeichnet man die Oberfläche eines Chips. In den meisten Fällen meint man damit die Oberfläche (Diffursionsschicht/ -sperre) von CPU, GPU oder PCH. Also meist das, was so schön spiegelt. Besonders oft fällt dieser Begriff in Kühlungsthemen, wo es darum geht wie der Kühlkörper (Heatsink) auf dem DIE aufliegt. Bitte nicht verwechseln mit einem IHS (Intergradet Heatspreader). Dieser ist z. B. bei Intel-Desktop CPUs auf dem DIE geklebt. Bei unseren AW-Notebooks ist der Heatspreader die große Kupferplatte auf dem Kühlkörper. (Link Wikipedia Heatspreader) Komponenten des Mainboards Die Erläuterungen der Komponenten habe ich anhand meines AW17 R5 Mainboards gemacht. Jedoch lassen sich die Sachen auch auf andere Notebooks wie beispielsweise dem Area51m übertragen, da sich in der Grundstruktur nicht so viel verändert. Ich werde nicht all zu tief ins Detail gehen, da ich sonst wahrscheinlich drei Tage für diesen Beitrag brauche. Also nur kurz und knapp und warum sie da sind und was sie machen. Ich fange mit der Spannungsversorgung von CPU und GPU an. Da CPU und GPU die leistungsstärksten Komponenten auf dem Board sind, benötigen sie dementsprechend eine speziell starke Spannungsversorgung. Das Schaubild ist zwar mehr auf einen Desktop-PC bezogen, funktioniert aber relativ gleich im Notebook. Die "Chokes", auch "Coils" oder in deutsch "Spulen" heißen richtigerweise Induktor. Der Begriff "Spule" kommt tatsächlich davon, dass sich im Inneren eine spulenähnliche Konstruktion (siehe Bild) befindet. Auch das Problem mit dem Spulenfiepen kommt genau aus diesem Bauteil. Sie können, je nach Modell und Last, in einer Frequenz takten, wo sie das menschliche Ohr hören kann. Zusammen mit dem Voltage-Controller, Doublern, MOSFETs und den Kondensatoren füttern sie die CPU/ GPU mit ausreichend Strom. VRM = Voltage Regulator Modul, bezeichnet die gesamte Einheit von Anfang bis Ende. Das nächste Bild beschreibt die Begriffe PCH, VRM, VRAM und wo diese auf dem Board liegen. Angefangen bei der GPU. Die Spannungsversorgung für den GTX 1080 Chip, ist Vcore GPU. Der Video-RAM (auch VRAM) hat seine eigene Spannungsversorgung, abgekürzt Vmem. Der Video-RAM beträgt 8 GB GDDR5X. Der Speicher kommt von Micron und das X steht einfach für einen etwas schnelleren Speicher. Guckt man sich die Bereiche zur Spannungsversorgung an, ist auch genau das der Bereich, den die Heatsink abdeckt (siehe Bild mit HS). Gerade die MOSFETs können sehr warm werden und es wirklich wichtig, dass die Bauteile gekühlt werden. Zwar werden Sie nur passiv und mit einem Wärmeleitpad gekühlt, aber das reicht schon für einen normalen Betrieb unter Last aus. Werden die Komponenten nicht richtig gekühlt und werden zu heiß, greift eine Schutzabschaltung ein, ähnlich wie bei der CPU. Meist macht sich das mit (dauerhaftes Intervall) kleinen Rucklern oder Freezes bemerkbar. Die Spannungsversorgung der CPU ist allgemein auf den gesamten Chip bezogen. Wahrscheinlich sind die beiden äußeren Induktoren rein für die iGPU. Der Rest wie Audio Controller usw. sollte klar sein. Der LAN Controller hat noch eine galvanische Trennung. Guckt man sich mit den Infos jetzt ein Area 51m PCB an, findet man viele Komponenten wieder. Mainboard von meinem alten AW17 R4: Anschlüsse auf dem AW17 R5 Board: Noch ein paar ergänzende Sachen. Viele Chips besitzen in einer der Ecken eine Markierung. Bei CPU und GPU sind das ein Dreieck bzw. ein Pfeil und bei den anderen Chips ein Punkt. Ich habe mal ein paar markiert. Von der CPU kennen das sicherlich viele. Die Markierungen sind dazu da den Chip richtig rum einzubauen. In einigen Schaltplänen ist die Markierung ebenfalls zu sehen. Falls es jemanden interessiert wie so ein Schaltplan im Einzelnen aussieht, einen Schaltplan vom M17x R4 hätte ich da: AW Schematics Document Was Aktuelles wird man leider nicht so einfach bekommen. Ich lade in den nächsten Tagen noch zwei High-Resolution Bilder vom R5 Mainboard hoch. Dann kann sich jeder einen besseren Blick vom PCB verschaffen.
  17. Hallo zusammen, ich wurde in letzter Zeit öfter angesprochen, teils auch über PN, um die vBios-Thematik und nvflash zu erklären. Da es ja ein Problem zu sein scheint das öfter auftritt, schreibe ich das mal in einem Thread ausführlich zusammen. Wichtig!!! Das soll eine Hilfestellung für Leute sein, die Lust haben selber an Ihren Geräten zu basteln. Ich erstelle diesen Thread mit bestem Wissen und Gewissen, dass bei mir so alles funktioniert hat aber ich übernehme ausdrücklich KEINE Haftung, falls etwas nicht funktioniert hat. Wann ist ein neues / anderes vBios nötig? Bei einem Stock belassenem Gerät ist das normalerweise nicht der Fall. Tauscht man aber eine Grafikkarte kann es sein, dass die vBios Version auf der Karte nicht mit dem Gerät kompatibel ist. Symptome dafür sind in jedem Fall ziemlich eindeutig. In den meisten Fällen funktioniert garnichts - manchmal funktioniert es bis die Karte unter Last gesetzt wird. Letzteres ist oft bei Optimus-Systemen der Fall. Es gibt auch die Möglichkeit mit einem modifizierten unlocked-vBios das Powerlimit der Karte anzuheben und die volle Kontrolle über Takt und Spannung von GPU und vRAM zu bekommen. Dies soll kein Erkärungsthread werden wie man seine Grafikkarte übertaktet. Wichtig ist, dass die unlocked-vBios keine Selbstläufer sind. Oft legen diese vBios direkt höhere Taktraten an, was aber nicht jede Karte bei der Spannung verträgt. Also man sollte sich, bevor man ein unlocked-vBios flasht, intensiv mit dem Thema GPU-OC auseinandersetzen. Wo bekomme ich mein vBios her und welches ist das richtige? Meines Erachtens ist TechPowerUp immer eine gute Anlaufstelle, um Stock vBios zu finden. Im Bereich "Video Bios Collection" kann man seine Karte suchen und es werden einem mehrere Möglichkeiten vorgeschlagen. Manchmal sind die gleichen vBios in unterschiedlichen Geräten verbaut. Gibt es also kein Dell oder Alienware vBios, fährt man meistens mit den Clevo-Versionen auch nicht schlechter. Hat man sein vBios gefunden, läd man es dort herunter. Was brauche ich zum flashen eines vBios? Es gibt im großen und ganzen zwei Möglichkeiten ein vBios zu flashen. Per Windows CMD oder per DOS Stick. Bei letzerem kann man entweder die Befehle selber tippen oder eine autoexec.bat Datei erstellen. Damit bekommt man die Möglichkeit blind zu flashen, was einem einige Vorteile bietet. Davon eine bessere oder schlechtere Möglichkeit zu bestimmen nehme ich Abstand. Sie haben beide ihre Vor- und Nachteile. Grundsätzlich braucht man immer: nvflash (Programm für Windows und DOS) Normale Version Mod Versionen vBios.rom Datei (optional) GPU-Z (optional) USB Stick (am besten nicht Größer als 4GB) Kann ich etwas kaputt machen, wenn ich das falsche vBios flashe? Das kann ich grundsätzlich verneinen. Es gibt bestimmt Ausnahmen, die die Regel bestätigen aber ich für meinen hatte schon viele flashe vBios drauf. Die Karte funktioniert dann einfach nicht. Nach dem flashen des richtigen vBios ist alles wieder gut. Aber ich verweise an dieser Stelle nochmal auf meinen eingangs erwähnten Haftungsausschluss. Flashen per Windows: Ordner auf dem Desktop erstellen und rein kommt: vBios.rom Datei (hier und im Folgenden schreibe ich vBios.rom und meine damit die vBios Datei die ihr flashen wollt) nvflash und nvflash64 aus der Heruntergeladenen .zip-Datei (hier und im Folgenden schreibe ich nvflash - bei 64bit Systemen ist natürlich nvflash64 zu verwenden) CMD als Administrator öffnen und in den Ordner auf dem Desktop navigieren cd Desktop/Ordnername Wichtig: Ausgangszustand sichern. Dazu entweder bei GPU-Z rechts neben der vBios-Versionsnummer klicken oder folgendes in der CMD eingeben. nvflash --save vBios_alt.rom Flashen des vBios: nvflash -6 vBios.rom Bei SLI Geräten ist die Nummer der Karte anzugeben. Link 0 - Rechts 1 nvflash -i0 -6 vBios.rom Je nach Karte und vBios fragt nvflash ein oder zweimal nach der Erlaubnis weiter zu machen. Das ist entsprechend zu quittieren. Zu guter Letzt wird man aufgefordert das System neuzustarten. Wenn sich das vBios nicht bespielen ließ und es sich nicht um ein modifiziertes vBios handelt, dann ist die Version wahrscheinlich nicht kompatibel und man sollte eine andere ausprobieren. Ist man sich sicher, dass die vBios Version passen muss, kann man sein Glück mit einer Mod-Version von nvflash versuchen. Damit können die Sicherheitsbedenken der Software umgangen werden. Flashen per DOS-Stick: Einen DOS-Stick erstellen Ich habe einfach mal das erste vorgeschlagene YouTube-Video verlinkt. Ist aber egal - Hauptsache am Ende hat man einen bootfähigen DOS-Stick. nvflash und vBios.rom auf den Stick ziehen System neustarten und vom Stick booten. Flashen des vBios: nvflash -6 vBios.rom Bei SLI Geräten ist die Nummer der Karte anzugeben. Link 0 - Rechts 1 nvflash -i0 -6 vBios.rom Je nach Karte und vBios fragt nvflash ein oder zweimal nach der Erlaubnis weiter zu machen. Das ist entsprechend zu quittieren. Blind-flash per DOS-Stick: Einen DOS-Stick erstellen Ich habe einfach mal das erste vorgeschlagene YouTube-Video verlinkt. Ist aber egal - Hauptsache am Ende hat man einen bootfähigen DOS-Stick. nvflash und vBios.rom auf den Stick ziehen Erstellen der autoexec.bat Öffnen vom Windows Editor nvflash -4 -5 -6 vBios.rom -i0 oder -i1 Bei SLI (siehe oben) Speichern unter -> DOS-Stick als Speicherort auswählen -> Dateityp: Alle Dateien -> autoexec.bat -> Speichern System neustarten und ins BIOS wechseln Bootreihenfolge bearbeiten, so dass vom Stick gestartet wird. Änderungen speichern und neustarten. Nun wird automatisch nvflash ausgeführt. Wenn alles klappt sieht man direkt danach wieder etwas. Hat es nicht geklappt - nach ca. 5min System ausschalten, mit anderem PC ein anderes vBios auf den DOS-Stick ziehen und nochmal versuchen. Mein persönliches Vorgehen (Empfehlung) Ich erstelle mir immer von der letzten funktionierenden vBios-Version einen bootfähigen DOS-Stick und habe immer meine Bootreihenfolge so eingestellt, dass er vom DOS-Stick bootet, wenn einer eingesteckt ist. Dann experimentiere ich unter Windows fröhlich mit den verschiedensten vBios-Versionen herum und wenn ich irgendwann einen Blackscreen bekomme, stecke ich den Stick ein und starte neu. Dann ist mein System wieder fit. Wichtig dabei ist, den Stick vorher getestet zu haben. Wenn dann alles funktioniert kann man (meiner Erfahrung nach) risikofrei experimentieren. Ich hoffe euch gefällt meine Anleitung und es ist alles einigermaßen klar geworden.
  18. Hallo, wollte mal Fragen ob der ein oder andere von euch schon mal eine CPU geköpft hat, soll ja zumindest im Desktop Bereich einige Grad an Temperaturen runter gehen?
  19. Nach dem der erste Versuch die Wärmeleitpads zu testen fehlschlug, beschloss ich die Sache erneut anzugehen. Diesmal aber etwas praxisbezogener, genauer und mit einer besseren Vergleichbarkeit. Vorwort Zunächst ein paar Sachen, die ich im Vorfeld beleuchten möchte damit man meine Entscheidungen und mein Vorgehen besser nachvollziehen kann. Eins aber gleich vorweg, sicher hätte man vielleicht den Test noch besser oder noch genauer machen können, aber so ein Test, in so einem Ausmaß durchzuführen ist sehr zeitintensiv und äußerst mühsam. Gerade bei einem Notebook, welches man immer wieder komplett zerlegen muss um das Wärmeleitpad zu tauschen. Angesichts der insgesamt 50 Tests bitte ich das zu berücksichtigen. Ansonsten Kritik, Lob, Verbesserungsvorschläge usw. nehme ich immer gerne an und jedem steht es frei eigenen Tests zu machen. Mit welchem Gerät wurde getestet? Da ich den Versuch so praxis- und anwendungsnah wie möglich nachstellen wollte, habe ich mir verschiedene Notebooks (MSI, Clevo, Toshiba) als Testgerät hierfür besorgt. Meinen AW17 R5 wollte/ konnte ich aus verschiedenen Gründen nicht dafür nehmen. Schlussendlich fiel die Entscheidung auf das Toshiba Notebook, genauer gesagt auf das Toshiba Satellite C70D-A-11D. Ein entscheidender Grund war die Heatsink. Diese war beim Toshiba vollständig aus Aluminium (bis auf die Heatpipe), sowie im Anwendungsgebiet der Wärmeleitpads. Mit Kupfer wollte ich nicht die Gefahr eingehen, dass ich mir vielleicht die Ergebnisse versaue bzw. nicht so eine Vergleichbarkeit besteht wie mit Aluminium. Ein weiterer Grund für das Toshiba C70D war die Befestigung der Heatsink. Die Schrauben hatten alle einen festen Endpunkt und der eigentliche Anpressdruck wurde über die Federn ausgeübt. So konnte ich sicher sein, dass ich bei allen Tests immer den gleichen Anpressdruck habe. CPU und GPU befanden sich beide auf einem Chip: AMD A6-5200 APU with Radeon HD 8400 Graphics Was genau wurde getestet? Getestet wurden verschiedene Hersteller der Wärmeleitpads, ebenso auch die verschiedenen Stärken/ Dicken, aber auch anderes Zeug wie K5-Pro oder Wärmeleitklebeband und letztendlich noch eine Wärmeleitpaste als direkter Vergleich zu den Pads. Hier mal eine kurze Übersicht: Thermal Grizzly Minus Pad 8 in 1,0 und 0,5 mm (Hersteller-Link) (8 W/mK) AlphaCool Eisschicht in 1,5, 1,0 und 0,5 mm (Hersteller-Link) (7 /11 /17 W/mK) Arctic Thermal Pad in 1,5, 1,0 und 0,5 mm (Hersteller-Link) (6 W/mK) EKWB Thermal Pad G in 1,0 und 0,5 mm (Hersteller-Link) (3,5 W/mK) Computer Systems K5-Pro (Hersteller-Link) (>5,3 W/mK) Wärmeleitklebeband 0,2mm (Kauf-Link) Noctua NT-H2 Wärmeleitpaste (Hersteller-Link) Wie wurde getestet (Testbedingungen)? Hierzu habe ich einen IDLE und einen LOAD Test gemacht. Bei jedem Wärmeleitpad habe ich diese beiden Tests jeweils zwei Mal gemacht, sprich vier Tests pro Wärmeleitpad. Mit dieser Methode wollte ich gegebenenfalls Messfehler ausschließen und die Genauigkeit erhöhen. Alle Tests liefen 15 – 16 Minuten und es wurde penibel darauf geachtet, dass alle Fenster an der gleichen Stelle sind, der Log immer an derselben Stelle losgeht, immer die gleichen Einstellungen geladen sind usw. Schließlich wollte ich diesmal alles so sauber wie möglich testen. Für den IDLE-Test habe immer ein Youtube-Video laufen lassen. Es war ein 15-minütiges Countdown-Video mit Alarm. Das hat das Loggen etwas vereinfacht und das Video hat verhindert, dass das Notebook den Bildschirm abdunkelt oder in den Energiespar-Modus geht oder sonst was. Bei Notebooks wie Toshiba, Acer usw. ist immer sehr viel Bloatware mit installiert. Da weiß man nie so wirklich wie sich das Notebook unter gewissen Umständen verhält. Deswegen was Einfaches, was kaum Last erzeugt und zuverlässig funktioniert. Für den LOAD-Test habe ich Cinebench R20 genommen. Ich habe ihn gewählt, weil dieser 100% Last auf allen Kernen erzeugt und glücklicherweise mit dem alten Toshiba Notebook ebenfalls 15 – 16 Minuten geht. Es wurde immer erst der IDLE-Test und anschließend er LOAD-Test durchgeführt. Dann würde halbe Stunde gewartet und wieder IDLE- und LOAD-Test. Bei allen Tests habe ich auch immer darauf geachtet, dass die CPU Package Power (Gesamtverbrauch) ihre „bestimmten“ Werte erreicht. So konnte ich ziemlich sicher sein, dass der Test sauber durchgelaufen ist. Dazu im Chart dann mehr. Außerdem wurde auch auf die Raumtemperatur geachtet. Dank der Belüftungsanlage in der Wohnung und des geringen Stromverbrauchs (= Abwärme) des Notebooks, betrug sie bei allen Tests konstant 22 – 23 °C. Auf allen Tests stand das Notebook auf einem Cooler Master U3-PLUS Kühler OHNE Lüfter. Damit wollte ich verhindern, dass sich das Gehäuse bzw. die Tischplatte aufheizt oder sich Stauwärme oder dergleichen bildet. Außerdem war das Arbeiten in der Position für mich angenehmer. Geloggt wurde das Ganze übrigens mit HWinfo und später in Excel übernommen. Nun zu dem Wichtigsten, dem Ergebnis. Wie ich schon vermutet habe, erzeugen dickere Pads mehr Widerstand und dementsprechend schlechtere Temperaturen. Wobei die Eisschicht-Pads von Alphacool bei der 1,0mm Dicke die Nase vorn hatten. In der Dicke 0,5mm gibt unter den Herstellern kaum ein Unterschied. Sie performen alle relativ gleich gut, auch K5-Pro und die Pads von Arctic. Außer die Pads von EKWB, die waren in allen Tests verhältnismäßig schlecht, leider. Ich habe da auch einen Verdacht, dazu aber später mehr. Das Wärmeleitklebeband hat mich schon ein wenig überrascht. Obwohl es sehr dünn mit 0,2mm war, war es so dermaßen schlecht, dass ich mir zwei weitere Tests gespart habe. Dort wurde selbst im Cinebench weiter runtergetaktet als im idle. Erst dachte ich, hmmm vielleicht ist es zu dünn und hat sich gelöst, aber bei der Demontage hat das Tape verdammt gut geklebt und ich habe die Heatsink nur mit sehr viel Kraft abbekommen. Also eine Verbindung bestand definitiv. Für eine bessere Lesbarkeit habe ich noch die Spalte "°C pro erzeugten Watt" aufgelistet, weil nur die nackten Zahlen manchmal täuschen können. Natürlich erzeugt weniger Last (Package Power) auch weniger Wärme und man muss das in die Bewertung mit einfließen lassen. Genauso auch die Drehzahl der Lüfter, wobei diese sowohl im IDLE als auch im LOAD überwiegend immer gleich war. Jetzt mal Noctua und das Wärmeleitklebeband außen vorgenommen. Obwohl ich darauf geachtet habe, dass alles so sauber wie möglich getestet wird, ist mir ein Ausrutscher leider trotzdem rein gekommen und zwar bei der Nr. 41. Normalerweise wurde im IDLE-Test immer so um die 3,xx Watt erzeugt. Hier war es knapp das Doppelte, weil wahrscheinlich irgendein Hintergrundprozess lief. Glücklicherweise habe ich aber immer einen zweiten Test gemacht und dieser entspricht mehr allen anderen IDLE-Tests im Vergleich. Deshalb bitte nur diesen werten. Da ich nicht genau weiß wie klein das Chart bei euch auf dem Bildschirm dargestellt wird, habe ich es vergrößert und in der Mitte geteilt. Somit sollte man alle Werte erkennen können. Interessant finde ich, dass die Hersteller mit ihren Wm/K - Werten sich immer gegenseitig überbieten und die teuren Pads angeblich so viel besser die Wärme weitergeben als die günstigen. Vergleicht man die W/mK-Werte der Hersteller und mein Ergebnis, kann ich mir nur schwer vorstellen, dass die W/mK-Werte tatsächlich einem genormten Test entsprechen. Gut, aber das kennt man ja schon von Wärmeleitpaste und Lüfter. Hersteller testen gerne unter ihren "eigenen" Testbedingen um das eigenen Produkt besser dastehen zu lassen. Wärmeleitpaste kann man noch einfach selber testen und es gibt dazu auch etliche Videos auf Youtube, aber zu Wärmeleitpads gibt es kaum ausführliche Tests. Und da man das nicht so einfach selber testen kann, musste man also hoffen, dass der Mehrpreis für das Produkt auch gerechtfertigt ist. Deswegen habe ich diesen Test gemacht.
  20. Hallo Zusammen, ich habe einen Notebook-Kühler gebaut, von Scratch sozusagen und wollte das Ergebnis mit Euch teilen. Nur mal so. Material und Kosten: - Alublech 50x50 cm, 2 mm Profilstärke (Ebay): 16,24 € - Dichtungsband aus dem Bauhaus BM 3mm Stärke: 9,50 € - Dichtband EPDM, Stärke 1,5mm (Ebay): 5,69 € - Stahlecken 2,99 € - Gehäuselüfter SilverStone SST-FHP141 v 2.0 - FHP Serie 140 mm x 38 mm: 28,70 € - Drehknopf f. Poti: 5,99 € - On-/Off Schalter, Poti 100 Ohm, Lüsterklemme, Letungsdrähte sowie Netzteil 12V 1,5A und Kantenschutzprofile hatte ich schon parat, sie würden bei Kauf wohl mit weiteren 25-30 € zur Buche schlagen. - Aufwand: entspannt etwa 2 Tage Abmessungen B x H x T cm: 40 x 9,8 x 42 / Steuerungsleiste seitlich - noch extra 4 x 23 cm Ich habe mich bewusst für 1 Lüfter in 140mm Größe entschieden, dieser sollte direkt die Grafikkarte und die CPU des Notebooks anblasen. Zu diesem Zweck habe ich in meinem M17XR3 eine runden Aussparung ᴓ 140mm in der Notebook-Bodenplatte angefertigt. Die CPU sitzt hinter dem blauen Kühlkörper - s. Bild. Die Kühlkörper mit 5 bis 7 mm Höhe habe ich mit EC360® SILVER Pads 0,5mm draufgesetzt. Am Kühler kommt an der Lüsterklemme 12V DC Spannung an. Der Poti ist mit 100 Ohm so dimensioniert, dass der Lüfter in der untersten Stellung beim Einschalten sicher anläuft, die Drehzahl wird dann über Spannung geregelt und lässt keine Wünsche offen. Der Lüfter bewegt enorme Menge an Luft und baut ordentlichen Druck auf, ich habe mich für extra dickes Modell mit 38 mm entschieden. Zusätzlich habe ich den Lüfter noch einwenig optimiert - am Innenrand des Lüftergehäuses habe ich ein 1 mm dickes Alublech eingepresst, um den Luftspalt zwischen den Lüfterblätterspitzen und Rahmeninnenwand zu reduzieren. Das verringert Luftleckströme zwischen Rotor und Rahmen. Zur Kühlleistung: Über die Qualität der zusätzlichen externen Kühlleistung entscheidet natürlich die optimale Kombination aus Kühlerbauweise, Form, Anzahl, Anordnung, Montage zusätzlicher Kühlkörper im Notebook, verwendete Pads etc. Daher kann man die Kühlleistung des externen Kühlers nur bedingt für sich allein beurteilen. Ich glaube aber aus dem gewählten Design das Optimum rausgeholt zu haben. Bei ca. 85 % externer Lüfterleistung gelingt es die CPU Temperatur unter Stresstest mit Prime95 dauerhaft unter 82° zu halten. Davor war ich ziemlich schnell bei 92°. Bei der Grafikkarte ist es noch entspannter - im Furmark Test bleibt sie bei 60-62°, zuvor ohne externe Kühlung - 68°. Die PCH Temperatur sinkt dabei auf 69-70° (von 77-80° ohne externe Kühlung). Interessanterweise regelt der interne Grafikkartenlüfter bei Zuschalten externer Kühlung von 3.400 auf 2.500 rpm runter. Für mich sicheres Zeichen dafür, dass die externe Kühlung gut greift. Lautstärke: Da ich beim Spielen sowieso In Ear Kopfhöher nutze ist die Lautstärke für mich eigentlich zweitrangig. Dennoch hilft es natürlich dass ich den Lüfter entkoppelt eingebaut habe. Eine weitere Maßnahme zur Schalldämmung habe ich noch vor - Kantenschutz mit PVC Schaumprofilen am Kühlergehäuse. Natürlich ist dieser Lüfter bei voller Power nicht der leiseste, allerdings kann er auch leise, entsprechend im unteren Drehzahlenbereich. Ich würde sagen bezogen auf die Leistung hat er eine durchschnittliche Laustärke. Nur, im Unterschied zu sonst so leisen Premium-Lüftern sorgt er schon im unteren Drehzahlbereich für guten Durchzug und ist noch vergleichsweise leise. Zum Schluss noch ein Tipp - wenn einer von Euch jemals auf die Idee kommt selber einen Notebook-Kühler zu bauen - meine Empfehlung ist ein Alublech in der Profilstärke von max. 1,5 mm, das reicht vollkommen aus, denn mit 2 mm wird das Biegen eine kleine Herausforderung.
  21. Hallo Leute, hier ein kleines Tutorial um euer "Look & Feel" von AW wiederherzustellen: Viele von uns entschließen sich eine SSD nachzurüsten. Dabei ist normalerweise der beste Weg eine frische Installation von Windows durchzuführen. Leider ändert sich das AW Design danach zum normalen Windows 7 Design. Dies könnt ihr jedoch mit 10 Minuten Arbeit einfach wiederherstellen. Dazu benötigt ihr folgende Files: 3. Alienware Login-Sreen Image (Red Glyph Wallpaper) Wenn ihr alle benötigten Files nun downloaden konntet, könnt ihr anfangen euren AW wieder zu einem AW zu stylen. Zu aller erst müsst ihr jedoch die unsichtbaren Ordner im System sichtbar machen. Falls ihr das schon habt, könnt ihr diesen Schritt überspringen: Öffnet einen beliebigen Ordner Oben links auf Organisieren klicken Ordner- und Suchoptionen In den Tab "Ansicht" springen Den Punkt "Versteckte Dateien und Ordner" suchen "Alle Dateien und Ordner anzeigen" aktivieren Unten auf "OK" klicken - Fertig 1. Wiederherstellung der Windows Backgrounds (Wallpapers - Hintergrundbilder) Entpackt die von Dell bezogenen AW Wallpapers Öffnet folgendes Verzeichnis: C:\Windows\Web\Wallpaper\ Erstellt dort einen Ordner namens "Alienware" Packt alle entpackten Wallpapers dort hinein Jetzt könnt ihr bei euren Windows Hintergrunddesigns auch die Alienware Wallpaper wählen 2. Wiederherstellung der Alienware Avatar Bilder (Benutzerbilder) Entpackt die heruntergeladene Datei mit den Benutzerbildern Öffnet folgenden Ordner: C:\ProgramData\Microsoft\User Account Pictures\Default Pictures In diesem Ordner liegen nun alle Standardpictures, dort kopiert ihr einfach die AW Benutzerbilder hinein Jetzt könnt ihr euer Benutzerbild durch ein AW Avatar tauschen (in den Benutzerkonten) 3. Wiederherstellung des AW Logon Screen´s Öffnet folgenden Ordner: C:\Windows\System32\oobe\info\backgrounds Falls der Ordner (oder die Ordnerstruktur) noch nicht existiert, legt die Ordnerstruktur an (ich musste den Ordner "info" und "backgrounds" anlegen) Legt dort das Image "backgrounddefault.jpg" ab --> NICHT UMBENENNEN! Öffnet die Registry (Windowstaste --> "regedit" eingeben --> Enter drücken) Navigiert in der Registry zu folgendem Ordner: HKEY_LOCAL_MACHINE\Software\Microsoft\Windows\CurrentVersion\Authentication\LogonUI\Background In diesem Ordner legt ihr nun einen neuen "DWORD-Wert (32Bit)" an (Rechtsklick --> Neu --> DWORD-Wert 32 Bit) Diesen nennt ihr nun "OEMBACKGROUND" (Es könnte auch sein, dass dieser DWORD-Wert schon existiert) Doppelklick auf den neuen DWORD-Wert Ändert die 0 zu einer 1 Registry schließen Zum Testen könnt ihr einfach die Tastenkombination "Windowstaste + L" nehmen --> Dort sollte jetzt das AW Bild als LogonScreen auftauchen Ich hoffe ich konnte manchen Usern hier helfen. Bei Fragen stehe ich natürlich gerne zur Seite. Beste Grüße -Fr0z3n-
  22. Hallo, wollte mal fragen ob jemand weiß warum es keine Abtrennung mehr direkt gibt bei GPU's? Ich hatte letztens eine gtx 970m, und bei den Nachfolgern stand auch immer ein m für Mobile dahinter, mir fällt nur gerade auf das bei meiner jetzigen gtr 2080 nichts dahinter steht, weil im Internet wird ja trotzdem noch unterschieden zwischen 2080 Mobile und 2080 Desktop. P.S. kleine Frage am Rande, dass OC Ready muss nicht auch noch zufällig stehen im Gerätemanager? Da ich Bilder von Leuten gesehen habe, bei denen das dabei steht.
  23. Hallo Zusammen, ich habe zwar den ausführlichen und sehr hilfreichen Thread U3-Notebook-Kühler gelesen und auch schon viele Tipps zum DIY bekommen ?, aber einpaar Anfänger-Fragen bzgl. Ansteuerung externer Lüfter sind bei mir doch offen geblieben. Hoffe wie immer auf eure Hilfe. 1. Für PWM-Steuerung kann man ja z.B. diesen PWM-Regler (NA-FC1) einbauen, aber wie schließe ich ein externes 12V Netzteil mit DC-Ausgang (2 Adern +-) an diesen Regler an? Das habe ich nicht verstanden. Etwa über 3-Pin-Adapter? Muss ich mir das so vorstellen, dass ich DC Spannung auf 2 Pins lege und den dritten PIN außen vor lasse oder wie geht das? 2. Ich spiele mit dem Gedanken die rpm-Leistungsregelung des externen Lüfters später an ein passend dimensionierte(s) NTC-Widerstand (Thermistor) auszulagern weil ich eigentlich absolut kein Bock habe ständig am Regler hin- und her zu drehen, je nachdem wie viel Extra-Kühlung das Notebook-System gerade braucht, zumal ich das nicht genau weiß. Was ist dann besser - kann man einen solchen Widerstand einfach nachträglich zwischen PWM-Regler und Lüfter schalten und PWM-Regler auf 100% lassen oder nur den Widerstand zwischen Netzteil und Lüfter schalten und PWM-Regler weglassen? Oder sollte ich mich in diesem Fall lieber gleich für eine 3-Pin spannungsgeregelte Variante des Lüfters entscheiden? Es überrascht mich übrigens dass nirgends Thermistor-Steuerung bisher auch nur ansatzweise in den Raum der Überlegungen gestellt wurde wenn es um Kühlerbau ging... Ist es aus irgendeinem Grund so abwegig? Und, weiß jemand was darunter zu verstehen ist, wenn ein spannungsgeregelter 3-PIN Lüfter mit 3 festen Drehzahlen in der Spezifikation angegeben wird? Wenn der Lüfter doch spannungsgeregelt ist, müsste sich die Drehzahl doch auch stufenlos regeln lassen, je nach Spannung, oder? Übrigens, haben solche DC-Regler irgendwelche Vorteile gegenüber einem gewöhnlichem 3-poligen Drehregler-Poti, außer dass da scheinbar vordefinierte Spannungen eingestellt werden können? Weil, ich glaub einen Poti habe ich noch irgendwo rumliegen, dann kann ich mir den DC-Regler auch sparen? Vielleicht kann man sich dadurch sogar das eine oder andere Netzteil für den Kühler sparen, denn mit einem passenden Poti kann man ja ein x-beliebiges altes 18V-Steckadapter runter auf 12V und weniger bringen!
×
×
  • Neu erstellen...

Wichtige Information

Please note following information: Nutzungsbedingungen, Datenschutzerklärung and Community-Regeln. Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.