Rangliste
Beliebte Inhalte
Inhalte mit der höchsten Reputation seit 15.06.2024 in allen Bereichen anzeigen
-
Hallo zusammen, wie versprochen, hier meine ersten Eindrücke zum neuen Alienware Area-51 16. Da ich auch das aktuelle Razer Blade 16 hier habe, bot sich ein direkter Vergleich natürlich an (mit dem Disclaimer, dass es natürlich unterschiedliche Gewichtsklassen sind...). Haptik, Design & Verarbeitung: Der Monolith Das Alienware ist "built like a tank". Die Verarbeitung ist überragend, die Materialien fühlen sich absolut hochwertig an, und es gibt bisher nichts, was knarzt oder nachgibt. Interessanterweise fühlt es sich beim Tragen leichter an, als sein Gewicht vermuten lässt – beim HP Omen war das bei mir genau umgekehrt. Trotz seiner Masse hatte ich mehr "Wucht" erwartet, das Gewicht ist im Alltag also weniger schlimm als befürchtet. Durch die Masse wirkt es auch minimal wertiger, als das Blade, wobei beide auf einem sehr hohem Niveau sind. Beim Design hebt sich Alienware meiner Meinung nach positiv vom Einheitsbrei ab. Der leichte Schimmer auf dem Gehäuse und der grüne Touch des Alu-Chassis wirken fast schon mysteriös und deutlich "erwachsener" als bei manch anderem Gaming-Boliden (einige RGB-Lösungen bei der Konkurrenz sind mMn einfach uninspiriert und draufgeklatscht). Dagegen ist das Blade sehr dezent und fast schon langweilig – was man hier bevorzugt, ist natürlich reine Ansichtssache. Für mich hat das Alienware damit nur etwas mehr Charakter. Mit dem Glas unterm Laptop kann ich nichts anfangen Der einzige positive Punkt für mich hier ist, dass ich hier ein besseres Gefühl habe, den Laptop aufm Schoß zu haben. Normal – und auch so beim Blade – sind exakt an den Stellen die Lüfter-Intakes. Beim Alienware ist es hinterm Glas und oben unterm Display. Exhaust seitlich und hinten. Ein ergonomischer Vorteil für das Alienware sind die abgerundeten Kanten, die eine super angenehme Handballenauflage schaffen. Beim Blade ist das zwar auch gut, aber hier hilft vor allem die geringere Gehäusetiefe. Grundsätzlich finde ich es gut, dass es Ports auch hinten gibt, nur ist es im mobilen Einsatz unbequemer, wenn man nicht mal eben schnell seitlich was einstecken kann. Hier finde ich, dass das XMG Neo 16 2025 die beste Lösung von allen hat, weil es beides abdeckt. Weiterer Punkt, den man wissen sollte: Das Ding ist sehr groß für 16". Durch das "Thermal Shelf" (der Überhang hinten) ist es sehr tief und braucht mehr Platz als normal auf dem Schreibtisch. Mobilität ist hier definitiv Nebensache. Das Blade ist und bleibt einfach mobiler. Tastatur & Touchpad: Licht und Schatten Tastatur: Hier hat Alienware für mich leicht die Nase vorn. Der Hub ist super, das Tippgefühl ist zwar etwas "mushy" (weich), aber ich kann darauf extrem schnell und fehlerfrei schreiben. Sie wirkt insgesamt einen Ticken stabiler als die im Blade. Die Beleuchtung ist bei beiden top. Touchpad: Kleiner Vorteil für das Blade. Beide haben fantastische Gleiteigenschaften, aber der Klick des Alienware ist leider blechern und fühlt sich billig an, weshalb ich hier fast nur noch "Tap-to-Click" nutze. Dazu kommt, dass es für heutige Verhältnisse fast schon zu klein ist. Das Touchpad des Blade ist dagegen eine andere Liga: satter, leiser und haptisch hochwertig. Zwar löse ich beim Blade trotzdem öfter mal versehentlich Klicks aus, was nervig ist- und damit Vorteil Alienware, wo das nicht passiert - aber unterm Strich gewinnt es für mich dennoch. Ich liebe aber das RGB auf dem Touchpad 😉 Ein QoL-Sieg für das Blade ist auch die Software-Integration: Per FN-Taste leuchten nur die Sonderfunktionen auf, und per Shortcut kann man bequem durch alle Performance-Modi wechseln. Bei Alienware sind die Makrotasten umständlicher und wenig vielseitig zu belegen, zudem gibt es nur einen Shortcut für den "Overdrive"-Modus (der mit fast 60 dB an einen Düsenjet erinnert). Software ist auch die Achillesferse des Alienware... Hier muss Alienware dringend nachbessern. Das Command Center ist und bleibt eine Baustelle: Es lädt oft nicht korrekt, setzt Einstellungen willkürlich zurück und erzeugt manchmal hohe Systemlast. Razers Synapse ist hier einfach voraus, u.a. durch automatischen Wechsel auf 60 Hz im Akkubetrieb, einfaches Undervolting und die Auswahl von Farbprofilen – es ist durchdachter und ressourcensparender. Synapse ist jetzt auch nicht gerade der König auf dem Markt und hat Probleme, aber AWCC ist für mich der letzte Platz unter den namhaften Notebook-Hersteller. Lautstärke, Kühlung & Akku: Die große Enttäuschung Lautstärke: Unter Volllast sind beide laut und man sollte Kopfhörer aufhaben. Im "Balanced"-Modus hat das Alienware aber einen Vorteil: Mit 155W TGP ist es kaum schlechter, aber spürbar leiser, während das Blade diese Leistung nur im lauteren "Performance"-Modus erreicht. Balanced ist beim Blade auch angenehmer, aber hier gibt es dann der Thin&Light-Kategorie geschuldet nur noch bis maximal 125W. Trotzdem beachtlich für die Größe und das Gewicht. Für viele wird es auch aktuell kaum ein Unterschied beim Spielen ausmachen. Akku: Reden wir nicht lange drumherum: Das Blade gewinnt hier mit riesigem Abstand. Temperaturempfinden & Kühlung: Hier wird es kompliziert und für mich zur kleinen Enttäuschung beim Alienware, weil aufgrund des Gewicht und der Stellfläche die mit Abstand beste Kühlung erwartet hätte (über 3,3kg!). Das Alienware wird bei oberflächlichen Tests besser abschneiden, nur liegt hier der Teufel im Detail. Zwar hat das Blade extreme Hotspots (oberhalb der Tastatur und am Boden verbrennt man sich fast die Finger), im Alltag fühlt es sich aber trotzdem teils angenehmer an. Warum? Die Tastatur des Blade bleibt minimal kühler, weil hier u.a. die Intake-Kühler durch die Tastatur dazu beitragen. Es sind aber beide in dem Bereich ganz gut. Allerdings: Das Blade bläst keine heiße Luft auf die rechte Seite – als Maus-Nutzer ist das beim Alienware extrem nervig. Die Kühlung des Intel-Chips im Alienware und die Abstimmung des Systems sind fragwürdig. Selbst bei simplen Steam-Downloads springt die CPU auf fast 100 °C. Es dauert auch merklich länger, bis das Gerät wieder abkühlt. In Spielen ist es wiederum in Ordnung, es gibt oft nur einen kurzen Temperatur-Spike auf bis zu 105 °C (und das kann ja auch in der Software nach unten begrenzen), bevor es sich unter 90 °C einpendelt, aber das Verhalten bei Alltagsaufgaben ist einfach nicht gut gelöst. Im Idle ist es auch oft warm, weil die CPU oft bei über 60 Grad ist. Beim Blade ist die CPU nicht so potent und zeigt allgemein weniger Watt, jedoch merkt man es einfach, wenn es im Durchschnitt 15 Grad weniger sind. Möglicherweise liegt hier die Schwachstelle im Kühlkonzept: Die rückseitigen Ports limitieren die verfügbare Fläche für die Lüfterauslässe. Lenovo geht hier beim Legion bewusst den umgekehrten Weg und priorisiert die Kühlung über die Anordnung der Ports... Das ergibt Sinn, wenn Alienware davon ausgeht, dass das AW viel häufiger als Desktop Replacement eingesetzt wird. Dann sind die Ports hinten wichtiger, als eine bessere Oberflächenkühlung z.B. Die GPU-Kühlung ist im Alienware dafür erste Klasse. Die Wattzahlen und Taktraten sind sehr stabil. Beim relativen Max-TGP der beiden Geräte, liegt das Alienware gut 5 Grad niedriger. Display & Lautsprecher: Eine Frage der Priorität Lautsprecher: Die Speaker im Area-51 16 sind ein klarer Rückschritt zum Vorgänger (X16 R2). Die des Blade sind zwar leiser, klingen aber viel klarer, haben mehr Tiefe und eine bessere Ton-Trennung. Die Blade-Lautsprecher würde ich auch schon eher als Durchschnitt bezeichnen.... Display: Das IPS-Panel des Alienware ist gut, keine Frage, und sogar etwas heller. Sobald man aber Spiele wie Dune oder Alan Wake 2 startet, ist der Unterschied bei Schwarzwerten und Kontrast zum OLED des Blade signifikant. Dafür hat das matte Display des Alienware bei Lichteinfall Vorteile, da es weniger reflektiert. Beim Glossy-Screen des Blade sieht man dann gerne mal sich selbst, auch wenn die Farben dafür noch einen Tick kräftiger wirken. Ein persönliches Plus für das Alienware: Das Display ist etwas höher gebaut, was ich ergonomischer finde. Andere werden sich aber möglicherweise an den Bezels stören 😉 Noch ein IPS-Nachteil: Die höhere Helligkeit erkauft man sich dann auf höchster Helligkeitsstufe wieder mit stärker in Erscheinung tretenden Lichthöfen/schwächerem Kontrast. Kurzer Performance-Check (muss hier noch mehr testen) Alienware Area-51 16: Core Ultra 275HX, RTX 5080 - habe ich für 3.5k Euro vergünstigt bekommen. Razer Blade 16: AMD "HX 370", RTX 5090 - ebenfalls 15% Rabatt und damit bei 4.1k Euro. Time Spy Benchmark: Alienware: Overdrive-Modus mit werksseitigem OC: CPU ~16.900 | GPU ~22.600 Performance-Modus (leiser): CPU ~16.200 | GPU ~22.000 Razer Blade (Performance-Modus ohne OC) CPU ~10.000 | GPU ~22.500 (mit Cooling Pad sind über 24k drin) Fazit zur Performance: In Spielen nehmen sie sich oft nicht viel. Bei CPU-lastigen Titeln hat das Alienware dank der besseren 1%-Lows einen stabileren Eindruck hinterlassen. Sobald die reine GPU-Last (z.B. in 4K) dominiert, zieht die 5090 im Blade leicht davon. Und damit das Blade mit dem 5080-Alienware mitkommt, braucht es eine 5090 und ist damit natürlich teurer. Mein erstes Fazit Puh, keine leichte Entscheidung, denn es sind zwei fundamental unterschiedliche Ansätze für ein High-End-Notebook. Aber nach den ersten Tagen ist meine Tendenz. Ich bleibe wohl beim Blade. Hier die Zusammenfassung, warum: Was für das Alienware Area-51 16 spricht: ✅ Einzigartiges, mutiges Design; kreativer RGB-Einsatz ✅ Absolute Top-Verarbeitung, Ergonomie und Stabilität ✅ Geniales Tippgefühl auf der Tastatur ✅ Guter Balanced-Modus, der hohe Leistung bei moderater Lautstärke ermöglicht ✅ Stärkere CPU-Leistung und bessere 1%-Lows in CPU-lastigen Spielen. Außerdem standhafte GPU-Werte am Maximum. Spielerfahrung stabiler. ✅ Mattes Display, das bei Lichteinfall Vorteile hat; höhere Helligkeit ✅ Hotspots nicht übertrieben heiß, sondern höchstens warm Was für das Razer Blade 16 spricht: ✅ Deutlich mobiler und kompakter - dafür von der Leistung beachtlich ✅ Ebenfalls tolle Verarbeitung ✅ Tolles OLED-Display (Farben, Kontrast) ✅ Bessere und klarere Lautsprecher ✅ Ausgereiftere, durchdachte und leichtere Software ✅ Angenehmeres Kühlungs-Empfinden im Alltag (trotz extremer Hotspots) ✅ Weit überlegene Akkulaufzeit ✅ Bessere Gesamterfahrung beim Touchpad Das fragwürdige Temperaturmanagement bei Alltagsaufgaben, das IPS-Display und die unausgereifte Software sind für mich beim Alienware aktuell die größten Dealbreaker.9 Punkte
-
Wo genau nicht? Anspielung/ Verdeutlichung was man aktuell für's Geld bekommt im mobilen Gaming-Segment. Leistungszuwachs für eine "neue" Generation ist halt schwach/ enttäuschend, gerade im Hinblick auf die Preise. In der Vergangenheit war es oftmals so, dass eine neue Mobile-Generation die alte Desktop-Generation geschlagen hat. Beispiel Time Spy Graphics (oberen 10% inkl. OC, wo Desktop GPUs sogar im Vorteil sind): - 1080 Desktop: 9.500 vs. 2080 Mobile: 12.000 - 3080 Desktop: 20.800 vs. 4090 Mobile: 25.500 (xx90 GPU = xx80er Chip) Da ich beides besitze, mit beidem viel Zeit in 3D Mark verbringe, zieht man natürlich auch den Vergleich. Hat auch nichts mit Äpfeln und Birnen zu tun. Der Leistungssprung für eine "neue Gen" (so vermarktet und bepreist es Nvidia) ist enttäuschend, sowohl im Mobile als auch im Desktop (Desktop 4090/ 5090 jetzt mal außen vor). Wobei im Desktop-Bereich die GPU-Preise teilweise ein normales Niveau erreicht haben. Joa... schaut man in die Vergangenheit, wo die Notebook-Leistung noch grob stimmte, vergleicht man gerne Obst 😎 und erinnert man sich an die glorreichen Zeiten des Area 51m mit 9900K und 2080m zurück, konnte man das Wort "Desktop Replacement" in Bezug auf Leistung noch wirklich ernst nehmen.6 Punkte
-
So melde mich Hier mal mit einem kurzem Update : 😁. ### Folgendes ist bisher geschehen --> Identifikation der beiden Bios Chips . Einmal ein Windbond W25@80DVSIG für das EC-Bios Einmal ein Gigadevice GD25B64BSIG für das eigentliche Bios . Es hat ewig gedauert die beiden zu identifizieren da die Beschriftung auf den Chips sehr schwer lesbar sind . Anmerken möchte ich hierbei noch das es anscheinend verschiedene Chips auf dem Mainboard ( LA-B753P ) gibt . Im Anhang ein Schema des Boards . So nachdem ich dies nun erledigt hatte und mir für beide Bios Chips die passende Firmware geladen habe folgte das nächste Problem Die Klemmen des CH341a - Programmer´s ( SOIC8-IC-Clip ) sind recht billig verarbeitet und hatten schlechten Kontakt mit dem Chip - worauf die Software ( ASProgrammer - Neoprogrammer ) immer Fehler angezeigt haben 😮 Nun gut - 2 neue Clips bestellt und weitergehts Das EC Bios konnte ich bisher ( scheinbar ) erfolgreich flashen Nur der GD25B64BSIG - eigentliches Bios - wird in der Liste nicht aufgeführt und ich muss wahrscheinlich einen anderen Typ wählen -- Zeitaufwendig 😮 Ich bleibe jedenfalls am Ball , da ich keinen Zeitdruck verspüre Anhang : Schemata des Mainboards als PDF Einige Fotos Wünsche Euch noch einen schönen Abend Dell Alienware 17 LA-B753P Rev0.1(X00).pdf4 Punkte
-
Erstmal fertig für heute 🥴😴 Benchmarks bestanden, allerdings braucht die Graka wohl neue WLP und Pad's. 90 Grad Peak und sonst 87 Grad sind mir zuviel. Ist ne Gigabyte RTX 2080 Super. Ach und n bischen OC muss auch noch drin sein am System 👋😏 Jetzt aber erstmal Feierabend. Huch das eine Foto etwas verwischt 🙈4 Punkte
-
@Fadi: Ich stimme @dude08/15 zu, denn laut den beiden u. a. Beiträgen hier im AW Community Forum fehlt dem Alienware "All Powerfull" M17x R3 Notebook ein UEFI-fähiges BIOS, was wiederum Voraussetzung für die Funktionsfähigkeit der GeForce GTX 980m Grafikkarte ist. Aus meiner eigenen Erfahrung heraus mit einem GPU-Upgrade bei einem älteren Alienware 18 Notebook benötigt die GeForce GTX 980m Grafikkarte zudem einen modifizierten Kühlkörper mit einer besseren Kühlleistung von 100 Watt, sprich der im M17x R3 Notebook vorhandene GPU-Kühlkörper dürfte zum Einen nicht auf die GeForce GTX 980m Grafikkarte drauf passen und zum Anderen ist der vorhandene Kühlkörper auch thermisch nicht ausreichend dafür ausgelegt. Laut dem Beitrag hier im AW Community Forum, den Dir @Svencore schon verlinkt hat, kann man im M17x R3 Notebook aber wohl eine GeForce GTX 880m Grafikkarte zum Laufen bringen, aber auch das bedarf offensichtlich einiges an Aufwand. Leider hat das M17x R3 Notebook auch keinen Anschluss für den Alienware Graphics Amplifier (AGA), so dass Du darin evtl. eine leistungsstärkere externe Grafikkarte betreiben könntest. Und selbst wenn so hättest Du dann aber das Problem, dass die im im M17x R3 Notebook vorhandene CPU zu "schwach" ist und zum sog. "bottleneck" für die Gesamtperformance wird. Ältere Grafikkarten gibt's ja zu 99% nur noch als Gebrauchtware. Man weiß also nie, was man dann letztlich bekommt bzw. ob die Grafikkarte überhaupt funktioniert. Außerdem hat man in der Regel kein Umtausch-/Rückgaberecht und das ganze ist immer irgendwie mit diverser Hard-/Software-"Bastelei" verbunden. Von daher stimme ich@Jörg vollumfänglich zu, Dein Notebook lieber so zu belassen, wie es ist, und besser in aktuellere Hardware zu investieren. Es muss ja nicht gleich die neueste und teuerste HighEnd-Hardware sein, aber zumindest sollte sie insbesondere im Hinblick auf die systembedingten Anforderungen von Windows 11 schon zukunftssicher(er) sein.4 Punkte
-
@makla75 Hallo, meine ist 26,9cm lang, 10cm hoch und 4,3cm breit, also fast identische Maße wie meine RTX 2070, sollte eigentlich zu gehen, der Deckel. Ein vBios habe ich nicht drauf, müsste ich erst modden, wollte aber jetzt nichts groß riskieren. Habe die Asus Software mal installiert, der läuft eigentlich so schon perfekt und selbst bei Silent mit niedrigsten Drehzahlen, bzw. 0, macht die GPU aber wohl immer noch Geräusche, aufjedenfall doppelt so laut wie meine 2070, aber jeder hat ein anderes Geräuschpegelgefühl und da der Amplifier direkt neben mir auf dem Tisch stehen muss, hört man es leider zu deutlich, Handy sagt zwars 35dB, aber ist halt ein hochtöniger Radiallüfter. Im Bios selber, gibt es bei mir keine Funktion, um an der GPU irgedwas umzustellen. So ein Schalter gibt es bei meiner 2080 ti nicht. Gesundes Neues Jahr an alle. 🙋♂️✌️4 Punkte
-
Mainboard und Netzteil sind wieder eingene Entwicklungen, dass wusste ich aber bereits vorher. Groß "upgraden" wird also nicht möglich sein. Aktuell bin ich noch beim einrichten. Habe gerade Windows komplett clean installiert. Out of the box ist mein Ersteindruck durchwachsen. Hatte nie gleichbleibende Werte im TimeSpy. Es scheint sich aber nach der Neuinstallation geregelt zu haben. Optisch ist der Aurora R16 in Wirklichkeit deutlich schöner als auf den Screenshots/Videos. Die Verarbeitung ist durchweg sehr gut. Keine größeren Spaltmaße und extrem stabil gebaut. Dell typisch mit diversen Halterungen für GPU und Lüfter. Er wurde aber komplett aus Plastik gebaut, welches jedochs sehr hochwertig ist (dazu gehört auch das durchsichtige Seitenteil) Was ist bisher positiv: Gute Verarbeitung insgesamt Temperatueren sehr gering im Vergleich zu vorherigen Modellen (69°C GPU und CPU bei 60-75°C) <-- Ich zocke ausschließlich in 4K und habe nur Hunt: Showdown bisher getestet Lüfter sind um ein vielfaches leiser als zur vorherigen Generation, kann mit einem Eigenbau mithalten, aber natürlich nicht mit custom AIO WLAN Signal ist überragend, bin davon bisher am meisten beeindruckt Grafikkarte wie bisher absolut top verarbeitet 240mm AIO "gluckert" nicht und macht einen guten "leisen" Eindruck Verpackung und Lieferung Dezentere Optik mit schönem RGB Komakt Preis Negativ: BIOS komplett abgeschottet, so gut wie nichts einzustellen keine XMP Profile für RAM, nur 5600Mhz Alienware Command Center Profile nutzlos Dell Bloatware Neutral: Dell lässt ca. 5% Leistung auf der Straße liegen, vermutlich durch das Mainboard und nur 12 Phasen VRM für CPU Es handelt sich übrigens um folgende Hardware: Intel Core i9 14900KF Nvidia RTX 4090 32 GB DDR5 5600Mhz 2 TB SSD 1000W PSU 240mm CPU AIO 3 Jahrem Premium Support Preis: 3400€ - 400€ Cashback durch Shoop. Ich lande also bei 3K mit 3 Jahren Premium Support. Dazu gab es noch doppelte "Dell Rewards". Also glaube nochmal 175€ für den Dell Store. Gerade mal Helldivers 2 angeschmissen. GPU liegt bei 380-420W und CPU bei 150 - 200W. Temperaturen dann bei GPU 70-72°C und CPU 65°C - 85°C (je nach Kernauslastung)4 Punkte
-
https://www.golem.de/news/raptor-lake-intel-erklaert-fehlerursachen-und-kuendigt-weiteres-update-an-2409-189322.html Gerade drüber gestolpert...4 Punkte
-
Okay liebe Leute, es war die Grafikkarte... Habe gestern noch bisschen herumprobiert, Laptop bzw. Display konnte ich etwa auf 5% Helligkeit stellen, zum Testen habe ich dafür auch den Ein/Ausschaltknopf so belegt, dass dieser nur das Display aus/anschaltet, Jedenfalls hab ich den Föhn aus dem Badezimmer geholt, ihn aufs Display gerichtet und vorsichtig mit niedriger Stufe das Display erwärmt. Bis es außen wärmer war, als bei "normalen" Gaming-Gebrauch. Es blieb bei der eingestellten Helligkeit. Dann ein paar Minuten gewartet, aida64 und den Stresstest nur für GPU gestartet und es war nahezu sofort das Display auf 0%. Auch wieder ein Indiz dafür, dass es an der GPU liegt. Da ich sowieso nicht so ganz zufrieden mit den Thermals der CPU war (und leider immer noch bin, müsste wahrscheinlich die CPU Köpfen und mehr zu erreichen, das wollte ich jetzt aber nicht) habe ich mich dazu entschlossen den Lappi ein zweites Mal (komplett) soweit zu zerlegen dass der Kühler raus muss und habe im selben Zug die Grafikkarte ausgebaut und aus dem Fenster geschmissen... Läuft! Während ich die GPU ausgebaut habe, habe ich den Ofen auf 170Grad C vorgeheitzt. Schön, bzw. so gut es ging die WLP entfernt, Multimeter mit Thermo-Fühler geholt und die GPU in den Ofen gelegt. Nach zwei Minuten habe ich die Tempereatur auf 225 Grad erhöht. Immer unter Aufsicht. Als langsam die 225Grad C erreicht waren habe ich das ganze für wenige Minuten so gehalten. Die Temp ging nicht über 227C heraus. Dann habe ich den Ofen ausgeschalten und die Temperatur nur langsam fallen lassen, also immer nur kurz einen kleinen Spalt die Tür auf, bis auf ca. 120C. Dann habe ich das Blech samt GPU serviert... Noch etwas gewartet und nach während dessen den Kühler wieder vorbereitet. Kühler, Abdeckplatte (Wofür soll die eigentlich gut sein? Ist das der selbe Quatsch wie im KFZ bereich?!) Kabel, etc. alles wieder fest gemacht. Den Akku kurz zum Testen nur mit zwei Schrauben festgemacht den Lappi umgedreht, geöffnet, den Knopf gedrückt und was soll ich sagen? Schon beim Schriftzug "Alienware" Samt Alien-Köpfchen habe ich gesehen dass das Display wieder da ist, kaum hochgefahren und Fn+F9/F10 gedrückt und die Helligkeit ist tatsächlich wieder einstellbar und gegeben. Ich werde das Display nie über 80/90% Helligkeit betreiben, ist übrigens auch ein guter Tipp für den TV daheim um die Lebenszeit zu erhöhen (im Vgl. zu 100%), hoffentlich hilft es auch beim Laptop. Schon ein paar Runden 3DMark durch und die Beleuchtung ist unverändert. Drückt mir die Daumen oder Klopft mit mir drei mal auf Holz, dass es nicht nur eine Drei-Monate-Lösung, sondern eher eine für drei Jahre ist. lg Patrick4 Punkte
-
Schick doch mal ein Foto von deinem Laptop dann können wir dir sofort sagen welcher es ist. Wenn es ein 17 Zoll Gerät von 2013 ist mit steckbarer CPU und GPU sowie länglichem Power Button bleibt nur der Alienware 17R1 übrig. Der AW17R1 ist tatsächlich bei dell unter legacy Notebooks nicht geführt aber über die Suche zu finden: https://www.dell.com/support/home/de-de/product-support/product/alienware-17/drivers Quelle Bild: https://jp.mercari.com/item/m730993243104 Punkte
-
4 Punkte
-
Hi, ich eröffne mal das Thema hier exlusiv für die beiden neuen Alienware Area 51 Laptops von Alienware. Es wird in Q1 ein Alienware 16 Area 51 und ein Alienware 18 Area 51 Notebook geben. Unter folgenden Artikel gibt es die ersten Details inklusive Specsheet. Dell Unveils Pair of Alienware Area-51 Laptops | TechPowerUp Nun die schlechten Nachrichten, es scheint wieder nur ein Standard IPS Display zu geben...3 Punkte
-
Hi zusammen, wie einige mitbekommen haben, hatte ich ja mehrere aktuelle Gaming-Laptops getestet, jedoch keins behalten. Nach wie vor bzw. wie in den letzten wenigen Jahren schon, komme ich zu dem Entschluss, dass ein Gaming-Laptop für mich einfach keinen Sinn macht. Um das Thema für mich selber abzuschließen, hatte ich mir alle Vor- und Nachteile auch nochmal aufgeschrieben. Manche schwanken vielleicht aktuell oder in Zukunft zwischen Gaming-Laptop und (ITX-)Desktop und dann ist meine nachfolgende Auflistung evtl. hilfreich. Vorteile/Neutral Gaming-Laptop Gaming-Laptop überall aufklappbar bzw. nutzbar. Somit kann auch im Zug oder im Hotel ordentlich gespielt werden. Ich bin aber so gut wie nie allein in einem Zug oder Hotel, und wenn doch, dann reicht mir in dem Moment mein mobiles 14" Laptop mit langer Akkulaufzeit und genügend Leistung für Surfen, Mailen usw. (und das ein oder andere Spiel läuft für die seltenen Momente im Jahr sogar auch drauf, wenn ich unbedingt spielen möchte) mit Gaming-Laptop wird kein Monitor sowie keine Tastatur am Schreibtisch benötigt, sofern einem dieser allein ausreicht (die meisten Personen nutzen wohl aber noch externe Peripherie) Gaming-Laptop bei Transport leichter/kleiner (ich nehme meinen ITX-Desktop in einer Tasche einmal die Woche wo mit hin, finde ihn persönlich aber für kurze Wege nicht zu schwer, trage ihn mit einer Hand am Tragegriff der Tasche) Nachteile Gaming-Laptop (ITX-)Desktop hat je nach Spiel 60-120% (mehrere Spiele gecheckt) höhere GPU-Leistung @Gaming (mobile 5090 vs Desktop-5090) (ITX-)Desktop hat je nach Spiel 30-180% (mehrere Spiele gecheckt) höhere CPU-Leistung @Gaming (275HX/285HX/9955HX3D vs 9800X3D) Gaming-Laptop auch im Alltag bzw. bei Office-Anwendungen, Installationen usw. spürbar langsamer / mehr lag Gaming-Laptop deutlich lauter (vorallem im Couchmaster mit laufendem TV im Hintergrund schlecht) mit Gaming-Laptop spürbare Abwärme bei Tastatur usw. Gaming-Laptop blöd zu positionieren (viel Stellfläche), wenn Laptop an kleinem Schreibtisch @Monitor/Tastatur oder am TV am Lowboard genutzt werden soll mit Gaming-Laptop keine Tastatur-Wahl sowie freie Positionierung derer möglich (im Couchmaster oder bei Nutzung ohne Monitor sowie externer Tastatur am Schreibtisch) bei Gaming-Laptop Bildschirm/Sicht/Blick (im Couchmaster oder ohne externen Monitor am Schreibtisch) auf Dauer zu weit unten - bei mobilem 18"-Monitor für ITX-Desktop flexibel verstellbarer Fuß vorhanden. Mit einem solchen mobilen 18"-Monitor kann auch flexibel das Bild an verschiedenen Standorten (mit langem USB-C-Video-Kabel, adaptiert auf DP @ Desktop-5090) mit voller sowie leiser ITX-Desktop-Leistung ausgegeben werden (z.B. in Couchmaster/Couch, am Esstisch, auf der Terrasse) Kosten und Aufrüstbarkeit lasse ich mal außen vor. Ich möchte hier keine Diskussion für das Für- und Wider anstoßen, ein Gaming-Laptop hat definitiv seine Daseinsberechtigung - mindestens wie schon gesagt für Zug/Hotel. Das sind einfach meine subjektiven Gedanken zum Thema und vielleicht hilft es dem ein oder anderen oder eben auch nicht. Manchmal schwankt ja der ein oder andere zwischen Gaming-Laptop- oder Desktop-Kauf. Es ist auch so, dass manch einer (z.B. @pitha1337) sich einfach allgemein nur für kleine Laptop-Technik begeistern kann und damit viel lieber spielt bzw. Leidenschaft für aufbringen kann. Für diesen Fall bringen pragmatische Vor- und Nachteilslisten sowieso wenig. Grüße edit: Hier noch ein Foto vom Einsatz eines mobilen 17,3"-Monitors (gibt auch 18") im Couchmaster mit nebenbei laufendem 77"-TV im Hintergrund. Auf dem Foto sieht es so aus, als sehe ich nur ca. die Hälfte des TV-Bildes, das stimmt aber nicht - ich sehe etwa 80% davon. Wenn ich den Monitor etwas weiter runter machen würde (Standfuß ist flexibel) dann sogar 90-100%. Ich habe das Foto nur von etwas weiter unten aufgenommen, da ich wollte, dass man die Kissen + Platte (Couchmaster) sieht. Der 17,3-/18"-Monitor wirkt wie 27-32" am Schreibtisch, weil man ja entsprechend nah dran sitzt (knapp 60 cm Abstand von Display zu Augen). Der Monitor holt sich das Bild vom ITX-Desktop. Damit das Ganze mit einem Kabel funktioniert, benötigt man einen speziellen Adapter von DP auf USB-C sowie ein entsprechend langes USB-C-Video-Kabel. Damit funktioniert auch G-Sync (compatible). Ich nutze einen bequemen sowie offenen Over-Ear-Kopfhörer, so bekomme ich sowohl im Spiel alles mit, als auch im Hintergrund im TV. Für manch einen ist beides gleichzeitig möglicherweise zu viel, für mich ist es genau das Richtige, zumindest wenn ich Serien schaue. Es gibt wenige Momente in ner Serie / in nem Spiel, wo ich dann schonmal kurz Pause drücken muss, aber das ist recht selten. Bei Singleplayer-Spielen ist es ja allgemein jederzeit wunderbar möglich, ebenfalls bei Netflix & Co.. Neue Filme schaue ich mir dann schon ohne Gaming parallel an. Es ist nicht so, dass ich jeden Abend spiele. Aber bei den meisten Serien wie gesagt funktioniert beides gleichzeitig für mich gut.3 Punkte
-
Mir ist das völlig egal, wofür die Leute ihr Geld raushauen. Find Gaming-Notebooks aktuell nur ziemlich langweilig und sowohl leistungstechnisch als auch preislich sehr unattraktiv. Release Date der (Desktop) RTX 4080 war November 2022 und eine aktuelle Mobile 5090 schafft's nicht mal ne alte 80er Karte zu schlagen, zumindest gemessen an 3D Mark Ergebnissen (beide Fälle Benchmark optimierte Werte) - Time Spy Graphics: 30.700 vs. 26-27.500 - Time Spy Extreme Graphics: 15.000 vs. 12-13.000 - Port Royal: 19.800 vs. 17-18.000 - Steel Nomad: 7800 vs. 7000 und wir sprechen hier vom einem Gerät weit oberhalb von 4.000€ (normalerweise). Ein Vergleich mit Desktop 4090/ 5090 braucht man gar nicht erst anzufangen. Hinzu kommt noch, dass UV, RAM-Tweaking, Optimierungen wie Fan Control, Modding etc. teilweise immer schwerer wird umzusetzen, wenn nicht gar unmöglich. Also im Grunde, alles was Spaß macht, wird ein Riegel vorgeschoben. Dann die fragwürdigen Hardware-Konfigs (Display, RAM z. B.), nach wie vor kein mobiler 9800X3D (8-Kerner) und insgesamt der Abstand zur Desktop-Leistung. Alles so Sachen, die jetzt nicht unbedingt für Gaming-Notebooks sprechen. Jedenfalls aus meiner Sicht.3 Punkte
-
Evtl. versuchst du die Bios-Defaults blind zu laden: 1. Lappi Hochfahren, dabei F2 drücken 2. F9 zum defaults laden drücken->ENTER 3. F10 zum Speichern und Neustart->ENTER3 Punkte
-
Eigentlich ist folgendes die offiziell von Dell vorgeschlagene Bios Recovery Methode: https://www.dell.com/support/kbdoc/de-de/000132453/wiederherstellen-des-bios-auf-einem-dell-computer-oder-tablet-nach-start-oder-post-fehlern3 Punkte
-
Hi, Auf Hinweis in einem anderen Thread, hier jetzt der passende Thread bezüglich eurer Altgeräte, zeigt her eure Goldstücke! Ich fange sodann mal an mit meinem Area51 ALX: Ist das komplette original Setup incl. aller Peripherie und dem guten alten 23 Monitor😉 , so wie man es damals konfigurieren und bestellen konnte wenn man genug Kleingeld übrig hatte🙈👽😉Den auf dem Bild zu sehenden ollen Drucker mal außen vor 😉 Ich habe alle meine Retro Sachen im Netz, eBay/Kleinanzeigen usw. in den vergangenen Jahren zu guten oder auch manchmal überhöhten Preisen zusammen gesammelt. Aber Hobby und Vernunft passen halt manchmal nicht zusammen 😉 Der Area 51 R2: Der AW "Altar"😅 Wohnzimmer PC, der gute AW X51 R2: Habe noch unzählige gesammelte Merch Gegenstände/Klamotten usw, aber das würde den Rahmen sprengen erstmal.3 Punkte
-
Eine Sache sollte man vor Neuinstallation kompromitierter Rechner immer vorsichtshalber machen: BIOS flashen wg. UEFI Rootkits. Weil ich es hier noch nicht gelesen habe: Das allererste, was man machen sollte nachdem man gehackt wurde, ist das Password vom E-Mail-Account von einem unkompromittierten Rechner/Handy zu ändern. Falls der Hacker das Passwort schon geändert hat, sofort den E-Mail-Provider kontaktieren. Das ist deshalb wichtig, weil diese ganzen Passwort-Vergessen Mechanismen meistens über die E-Mail-Adresse laufen. Sehr empfehlenswert ist es auch sich für solche Passwort-Vergessen Sachen eine separate E-Mail-Adresse zuzulegen, deren Passwort man nur zuhause auf Papier hat. Nicht bequem, aber sicher. Es ist hilfreich, wo möglich für 2FA Hardware-Tokens verwenden. Die sind mittlerweile nicht mehr so teuer z.B. YubiKey ab 60€ oder Token2 ab 13,50€. 2FA ist nicht sicher, wenn der dazugehörige E-Mail-Account, das Handy, etc. ebenfalls kompromitiert werden kann. Außerdem ist es eine gute Idee Software, wenn möglich, Software über Winget zu installieren (Microsoft Store => App Installer). Das ist ein Kommandozeilen Tool um Software zu installieren und zu verwalten. Vor allem kann man sich sehr einfach Updates anzeigen lassen und installieren. Das spart eine Menge Zeit den Rechner up2date zu halten.3 Punkte
-
@kroenen04: Dann hast Du ja nochmal "Glück im Unglück gehabt", dass nicht noch mehr bzw. weiterer monetärer Schaden entstanden ist. Das Vorhandensein älterer nicht mehr aktueller bzw. unsicherer Software wird häufig unterschätzt. Oft hat man solche "Software-/App-/Daten-Leichen" gar nicht mehr im Blick oder die entsprechenden Ordner/Verknüpfungen/Registrierungseinträge sind nur noch rudimentär vorhanden und werden dem User gar nicht mehr angezeigt, bis dann so etwas passiert wie in Deinem Fall. Off-topic: Wenn der (kostenlose) Support von Microsoft Windows 10 im Oktober diesen Jahres eingestellt wird und viele User das Betriebssystem dann trotzdem (sei es aus Unwissenheit oder mangels Windows 11 Support auf älterer nicht unterstützer Hardware ) "ungeschützt" weiter nutzen und damit online im Internet unterwegs sind, werden sich solche und ähnliche Betrugsfälle häufen. Aber selbst bei aktueller Hardware und entsprechendem Schutz ist man doch nie ganz vor diesen "Menschen" sicher.☹️3 Punkte
-
Da wäre ich ja schon gleich sehr angefressen!!!! Den Originalkarton ohne Umverpackung geschickt, Beulen,Kratzer drin schon und der Versandaufkleber oben drauf gepappt. Wurde der Umkarton jetzt bei den neuen auch schon weggespart? 🤬😡Das Gerät an sich , Donnerwetter im Extrakarton mit Tasche, die ein wenig an die guten Samttaschen von früher erinnern, immerhin. Sorry, mir sind solche Kleinigkeiten bei den Preisen wichtig, anderen vielleicht nicht so, soll ja auch welche geben die OVP's entsorgen 😳🙈😫Bevor ein Unhold sowas hier vorhat: OVP's von AW zu mir!😉oder wo im Müll zum wieder rausholen🤣, es sei denn noch schlimmer, zerstört damit es besser in die Tonne passt 😱🫣. Die Farbe leuchtet aber viel blauer als ich es mir vorgestellt habe, dennoch ganz schick das Teil, obwohl sich mir der Sinn von Gorillaglas und Sichtfenster auf der Unterseite immer noch nicht erschließt 🤔 Vielleicht um ein Alleinstellungsmerkmal zu kreieren?k.A Das neuere GAN Netzteil mit Alienhead weiß auch zu gefallen 👍😁 Im dunklen Grau/Schwarz, im hellen Blau, find ich ganz gelungen, sowie das Design allgemein bis auf die Unterseiten Geschichte. Sieht nett aus , sieht man nur sehr selten denke ich oder auf ner LAN Party hochkant stellen um zu Posen 🤣 Wenn ich Bedarf und die Kohle übrig hätte wäre der meinerseits gekauft, trotz aller Kompromisse die für den einen mehr stören und für den anderen weniger. Da hat AW ja mal was einigermaßen ansprechendes rausgehauen, Tests und Kinderkrankheiten bleiben natürlich abzuwarten. Was ich übrigens schon länger schade finde ist, dass der AW Schriftzug am Display bei den neuen, seit der Powerful Serie meine ich, nicht mehr beleuchtet ist. 😢 Huch, gerade erst gesehen: Wo ist der ein/aus Knopf abgeblieben ne schnöde Taste auf der Tastatur 😫 Der Stylischte Powerbutton den ich kenne nicht mehr beleuchtet thronend über der Tastatur? 😳😱🫣😢 Ihr könnt mich ruhig kleinlich nennen, aber das der gute AW Powerbutton fehlt ist für mich ne Schande, würde mich sehr sehr und dauerhaft bei jedem ein und ausschalten nerven 🙈3 Punkte
-
3 Punkte
-
Ich habe alles richtig gemacht, es auseinandergenommen, die Kontakte gereinigt (sie waren wie neu, kein einziger Defekt oder Staubkorn, sie glänzten, als kämen sie gerade vom Band). das Problem bleibt bestehen Hallo Jörg! Ich befürchte, dass tatsächlich ein Defekt am Mainboard oder an der Grafikkarte vorliegt. Das Problem in der Ukraine ist, dass es unglaublich schwierig ist, Ersatzteile für ALIENWARE zu finden. Auch der Versand über eBay funktioniert nicht; In meinem Land herrscht Krieg. Nachdem ich die Foren und Reddit gelesen hatte, bemerkte ich, dass einige Leute dieses Problem von Anfang an hatten. Vielleicht ist mir das Gleiche passiert und ich habe es einfach nicht bemerkt (ich wiederhole, der Laptop funktioniert einwandfrei). Das ist mir bei CYBERPUNK 2077: Phantom Liberty v. 2.21 aufgefallen. Mit aktiviertem DLSS – FPS 6–21. Es war sehr auffällig. So kam es beispielsweise bei anderen Spielen zu Einbrüchen auf bis zu 40 FPS, die optisch jedoch nicht auffielen. der FPS-Unterschied zwischen PCIe x8 und PCIe x1 beträgt etwa 30 % Ich kann nur auf ein gutes Servicecenter hoffen, das den problematischen Teil des Motherboards oder der Grafikkarte findet und ersetzt. Denn im Allgemeinen sind sie Arbeiter. Ich vermute einfach, dass ein defekter Transistor das gesamte System zerstören wird. Aufrichtig Vlad Zum Vergleich FURMARK PCIe x8 FURMARK PCIe x1 (meins) Die gleichen 30% niedrigeren Ich halte Sie auf dem Laufenden (obwohl ich in absehbarer Zeit keinen guten Dienst finden werde) und hoffe, dass jemand im Forum eine „Wunderpille“ findet, mit der ich das Problem ohne einen Dienst lösen kann 😃 Tut mir leid, wenn Google Translate etwas falsch gemacht hat 😃 Frohe Ostern, Jörg, dude08/15 und alle anderen, die diese Nachricht lesen (und alle, die das nicht tun😉🤗)3 Punkte
-
3 Punkte
-
Hi, also erstmal wünsche ich dir viel Kraft, dass das alles ohne weitere Probleme klappt und du zufrieden gestellt wirst. Aber ich muss schon sagen, den Laden so dermaßen schlecht zu reden und zu boykottieren finde ich schon etwas daneben. JA, es ist sehr ärgerlich, dass kein Techniker rausgeschickt wurde. Aber es wurde ja trotzdem direkt von Anfang an angeboten, dass Gerät einzuschicken. Natürlich sollte man Premium-Support erhalten, wenn man dafür viel Geld bezahlt. Ich kann bislang nur einen Reparaturauftrag bei Alienware/Dell verzeichnen, und das klappte reibungslos. Vielleicht ist es eine Verkettung von vielen blöden Zusammenhängen und es ist auch richtig diese Erfahrungen im Netz mit einer Community zu teilen... ob man jetzt die ganze Firma/Marke verteufeln muss, vor allem wenn man ja jahrelang IMMER sehr zufrieden war... weiß ich nicht. Wie gesagt. Ich hoffe es klappt am Ende so, wie es sein sollte. LG3 Punkte
-
Ich kann mich @pitha1337 im Grunde nur anschließen. @BerlinRockz Wenn ich das richtig verstanden habe, hattest Du ja vor etwa 3 Wochen den Vor-Ort-Service für den Austausch der Tastatur in Anspruch genommen. Dann, vor etwa 5 Tagen dann erneut Kontaktaufnahme mit Dell Support wegen der geschilderten Problemsituation. Während seitens Dell nur vorgeschlagen wird, das Gerät nunmehr einzuschicken ( sicher Abholung durch UPS), möchtest Du auf der Vor-Ort-Reparatur beharren. Ich hätte mir an Deiner Stelle auch gewünscht, dass wieder vor Ort repariert werden kann. Andererseits ist es für mich ehrlich gesagt nachvollziehbar, dass Dell das Gerät nun in der Werkstatt überprüfen will, wenn bei einem 5 Monate alten Gerät nach einem „Brand“, wie bei Dir offensichtlich, mehr als nur ein Teil beschädigt worden ist. Von der Rußverteilung bis in die Lüfter hinein mal abgesehen, ist ja nicht auszuschließen, dass nicht noch mehr Schaden entstanden ist. Gleichzeitig hat man eher dort die Möglichkeit auch den tatsächlichen Grund für den Schaden im Systemverbund zu analysieren. Das ist nochmal was anderes als Einzelteile zu testen. Schließlich soll die Lösung ja langfristig währen. Und ein Vor-Ort-Techniker tauscht in der Regel wirklich nur die Teile aus. Meiner Meinung nach spricht in Deinem Fall Vieles für eine ziemlich misslungene Kommunikation zwischen Dir und dem Dell Support. Andernfalls kann ich mir wirklich nicht erklären wie es zu einer derartigen Eskalation innerhalb von nur wenigen Tagen kommen kann. Dein „Fall“ ist ja noch ganz frisch und ich kann Dir aufgrund meiner Erfahrungen mit dem Dell Support nur raten, grundsätzlich immer freundlich zu kooperieren. In Deinem Fall würde ich deshalb Dell’s Ermessensspielraum, wie ein Schaden am besten beurteilt und behoben werden kann, respektieren, dh: Daten sichern, am besten anrufen, schnellstmöglich einen Abholtermin vereinbaren, damit nicht unnötig viel Zeit verschwendet wird. Je nach Ergebnis bekämest entweder Dein Gerät im funktionsfähigen Zustand zurück oder gar ein Ersatzgerät oder ein Refund. Der Zeitablauf würde so oder so von der Verfügbarkeit der benötigten Austauschkomponenten abhängen. Sofern von „refurbished“ Teilen die Rede ist, sind diese meines Wissens nicht abgenutzt, sondern auf Ihre Funktionsfähigkeit hin separat überprüft; z.T. aus nagelneuen Geräten der Baureihe, die aus verschiedensten Gründen (zB innerhalb von 14 Tagen) zurück gegangen sind. Generell können ab Fabrik eingebaute Komponenten auch fehlerhaft sein und dies sich erst im Nachhinein herausstellen. Sollten im Anschluß an eine Reparatur, sofern Du Dell überhaupt die Gelegenheit dazu gibst, etwa immer noch Hardware-Probleme auftauchen, ist es m.E. sehr unwahrscheinlich, dass man einem Wunsch nach Austausch oder Refund, nicht entsprechen würde. Wie gesagt, meine Empfehlung beruht auf Basis meiner jahrelangen positiven Erfahrungen mit dem Dell Support, die immer (!) ein Entgegenkommen gezeigt hat. Ich hoffe daher für Dich, dass sich eine weitergehende Eskalation vermeiden lässt und Du so letztlich zu einer vergleichsweise schnelleren Lösung gelangen kannst.3 Punkte
-
Mein Projekt restaurierung/Upgrade eines Area 51 R2 läuft bestens, er ist nach 4 Jahren im Keller erwacht heute das erste mal. Vorher "alles" komplett zerlegt, gereinigt, neuen RAM, neue Graka, neue SSD'S,WLP usw. läuft bis jetzt wie geschmiert die Kiste 👍 🙃😊😜Jetzt dabei am Win11 einrichten,Treiber usw.3 Punkte
-
@kroenen04: Solltest du unbedingt machen, ja. Waren beim Monitor Anschluss-Kabel dabei, z.B. ein HDMI-Kabel und/oder ein DP-Kabel? Diese solltest du nach Möglichkeit verwenden und kein anderes, da dann zu 100% die vollumfängliche Unterstützung des Monitors sichergestellt ist, vorausgesetzt es wurde PC-seitig korrekt angeschlossen, nach Möglichkeit direkt an der Grafikkarte. Auf ein zusätzliches Kabel, das als Verlängerung dient, solltest du verzichten, das kann zu Problemen führen. Dein Monitor unterstützt HDMI 2.0 und DP 1.4, deine 4080 HDMI 2.1. Und hier könnte evtl. schon das Problem liegen, bin mir da aber nicht 100% sicher, da manche Aussagen gegensätzlich sind. Es kann sein, dass bei deiner WQHD-Auflösung und HDMI 2.0 gar nicht 144 Bilder pro Sekunde übertragen werden können und daher die Synchronisations-Vorgänge, die V-Sync ausführen möchte, gar nicht funktionieren können. Hier bin ich mir aber wie gesagt nicht zu 100% sicher, evtl. kann hier jemand anderes etwas zu sagen. Daher würde ich an deiner Stelle, sofern das für dich nicht mit großem Aufwand und/oder Kosten verbunden ist, auf DP 1.4 wechseln. HDMI erscheint mir von der maximalen Leistung für deine Situation zu grenzwertig. Nachtrag : So, mein Verdacht hat sich nun bewahrheitet, HDMI 2.0 reicht für deine Situation nicht aus !! Auf der BenQ-Webseite gibt es eine Tabelle, ich verlinke dich mal dorthin, dann kannst du es selber sehen : Wann brauche ich wirklich HDMI 2.1 oder reicht HDMI 2.0 aus? | BenQ Deutschland Bei deiner Auflösung (3440x1440) benötigst du für 144Hz min. HDMI 2.1 . Das unterstützt zwar deine 4080, dein Monitor jedoch leider nicht . Von daher ist es jetzt natürlich klar, warum die Aktivierung von V-Sync nicht das bewirken kann, was es eigentlich soll, da die Basis-Voraussetzungen dafür bei dir nicht gegeben sind. Nachtrag 2 : Ich sehe gerade, du hattest das Problem bereits selber erkannt bzw. als Ursache in Betracht gezogen. Asche auf mein Haupt, das kommt davon wenn man nicht alles sorgfältig liest . Nachtrag 3 : Ganz unabhängig von deinem V-Sync-Problem : Freesync funktioniert offensichtlich auch mit NVidia-Karten . Dazu muss natürlich ebenfalls die Basis stimmen, was aktuell ja bei dir nicht der Fall ist. Daher solltest du wirklich bei dir von HDMI 2.0 zu DP 1.4 wechseln. Dann sollten sowohl V-Sync, als auch FreeSync bei dir funktionieren. Ist bei dir ein niedriger Input Lag Thema oder von Wichtigkeit, würde ich FreeSync nutzen. Stört dich ein Input Lag nicht und du möchtest deine HW nicht bis zum Anschlag ausreizen(Temperaturen), nimm besser V-Sync. Gruß Jörg3 Punkte
-
Ja, hab schon vor einigen Jahren mit Putty rumhantiert. Aus heutiger Sicht würde ich aber kein K5 Pro mehr empfehlen (damals gab's halt kaum was anderes). Wenn's um Wärmeleitpads geht --> Arctic TP-3 Wenn's um Putty geht --> CX-H1300 (13,5 W/mK) oder Upsiren UTP-8 Thermal Grizzly bietet seit neusten auch Putty in drei Abstufungen an. Igor's Lab hat sie getestet, falls dich die Unterschiede interessieren. Putty und Wärmeleitpads nur auf Hardware-Komponenten wie VRAM, VRM usw. Auf CPU und GPU sollte man wie vor auf klassische Paste, LM oder idealerweise auf Honeywell PTM7950 setzen.3 Punkte
-
Ich bin grundsätzlich immer gegen Staubschutz. Jeder Widerstand verringert den Airflow und verschlechtert somit die Kühlleistung, teilweise sogar erheblich. Hängt natürlich immer vom Einzelfall ab, was einem wichtiger ist und wie viel Staub das Gerät ausgesetzt ist. Je nach Ausprägung/ Belastung kann ein Staubschutz schon sehr sinnvoll sein. Meine Notebooks und der PC steht im Büro, wo ich sehr wenig Staub habe. Im Nicht-Gaming-Betrieb kann ich oftmals die Notebooks mit Kühler und Mods soweit runterkühlen, dass nie NB-Lüfter erst gar nicht angehen, wodurch sie auch kein Staub ansaugen können. Das klappt aber auch nur, wenn man unter bestimmten Temperaturschwelle bleibt. Wäre mal interessant zu wissen. Evtl. auch der Vergleich mit dem Topside-Kühler. Noise-normalized wird wohl außer Frage stehen. Problematisch ist aber sauberes und fehlerfreies Messen/ Vergleichen. Dadurch, dass die NB-Lüfter nicht auf eine feste RPM-Zahl fixiert werden können und an bestimmten Temperaturpunkten hängen, ist ein Vergleich schwierig. Kühlt man besser von Außen (z.B. mit einem Kühler) machen die NB-Lüfter selbst weniger = ergo man landet bei einer ähnlichen Temperatur, nur entsprechend leiser.3 Punkte
-
In meinem Area 51 ALX von 2009 funzte dass Gott sei Dank mit einem ASRock Board, da ist aber einiges zu beachten bezüglich Umbau, habe das hier im Forum auch ausführlich dokumentiert, finde es gerade aber nicht. Also es "kann" gehen, "muss" aber nicht. Das zerstören des Controllers ist wirklich eine heiße Kiste gewesen, zumindest bei den älteren Semestern. Achtung ,wenn man nicht genau weiß was man da tut und bei der kleinsten Unsicherheit:Finger weg!!! Es gibt auf Gifthub noch alternative Programme zur Beleuchtungssteuerung, z.B. Aurora Lights FX oder so ähnlich,damit geht's teilweise auch. https://github.com/antonpup/Aurora https://github.com/erlkonig/alienfx https://github.com/T-Troll/alienfx-tools https://github.com/trackmastersteve/alienfx3 Punkte
-
Meines Wissens nach wird die Alien FX Beleuchtung hardwareseitig über einen DELL/Alienware eigenen Microcontroller mit eigenem BIOS/Firmware gesteuert, der auf dem DELL/Alienware eigenen Mainboard verbaut ist und dort am USB-BUS-System hängt. Der Alien FX Treiber für den Microcontroller wird mit dem Alienware Command Center (AWCC) installiert und das Ganze dann softwareseitig damit angesteuert bzw. die Beleuchtung entsprechend ein-/ausgeschaltet und farblich eingestellt. Ich persönlich kann mir daher nicht vorstellen und mir ist auch kein Fall bekannt, dass die Beleuchtung auf einem nicht DELL/Alienware eigenen Mainboard ohne diesen Microcontroller funktioniert. Dafür spricht insbesondere die Tatsache, dass es über die Jahre hinweg zahllose Varianten des Microcontrollers und entsprechende Versionen des AWCC gab. Für die Funktionsfähigkeit muss der Microcontroller bzw. dessen BIOS/Firmware aber zu einer ganz bestimmten Version des AWCC und dessen Alien FX TReiber passen! Im schlimmsten Fall kann man bei Inkompatibiltät den Microcontroller irreperabel beschädigen! Aber es scheint wohl doch eine recht komplizierte Möglichkeit zu geben, die Beleuchtung auch auf nicht DELL/Alienware eigenen Mainboards herzustellen und zu steuern (siehe dazu auch die u. a. YouTube Video Anleitung). Das Ganze wurde auch im DELL/Alienware Community-Forum publiziert (siehe hier: https://www.dell.com/community/en/conversations/alienware-desktops/area-51-r2-retail-motherboard-install-awcc/647f9eb9f4ccf8a8de362980?commentId=647f9ec6f4ccf8a8de3735ff). Auch auf "reddit" gab's mal einen entsprechenden Beitrag (siehe unten): Ich halte das wie gesagt für sehr aufwändig und riskant, aber wie so oft im Leben ist Nichts unmöglich. 😉 Gerne kannst Du ja mal über Deine Erfahrungen berichten, falls Du das Ganze mal an Deinem System ausprobieren willst.3 Punkte
-
@StardusNbg: Das war grundsätzlich schonmal eine gute Entscheidung, da die gummierten Oberflächen irgendwann verschleissen und anfangen zu kleben und unansehnlich werden wenn man seine Hände beim schreiben häufig darauf abstützt. Bei Apple sind auch die Tastaturen geringfügig anders und stellen eine Art Sonderfall dar, da kann es natürlich sein, dass man bei einer externen Tastatur in Kombi mit beispielsweise einem MB Pro besser auf eine hauseigene Tastatur zurückgreift. Gerade für dich, der oft und lange mit Apple arbeitet bzw. gearbeitet hat, wäre das aus meiner Sicht am sinnvollsten. Generell kann man bei Windows-Systemen auch ganz beruhigt auf Fremdmarken zurückgreifen, das sollte kein Problem sein. Mit den gängigen Marken wie Cherry oder Logitech kann man meiner Meinung nach nichts falsch machen. Zunächst gibt es keine bescheuerten Fragen, sondern nur bescheuerte Antworten . Anschließen kannst du grundsätzlich erstmal alles, ob es aber vollumfänglich ansteuerbar ist und unterstützt wird, steht auf einem anderen Blatt. Über das Command Center kann man in der Regel nur hauseigene Tastaturen steuern und konfigurieren. Die gängigen Tastatur-Hersteller bieten aber teilweise auch eigene Software an, mit der sich ihre Produkte anpassen und steuern lassen. Die reine Schreibfunktion dürfte grundsätzlich immer garantiert sein und funktionieren, egal ob hauseigen oder Fremdmarke. Nur spezielle Sachen wie Beleuchtung, Makros etc. sind in der Regel von einer passenden bzw. hauseigenen Software abhängig. Mit sinnvoll oder nicht sinnvoll hat das nichts zu tun, es ist eine reine Geschmacksache und/oder eine Sache der persönlichen Anforderungen. Du hast halt nur leider für dich die falsche Tastatur von AW bestellt, die nunmal nicht beleuchtet ist. Solltest du vor haben, dir nun eine aktuelle AW-Tastatur mit Beleuchtung zuzulegen, prüfe bitte vorher, ob diese von der Command Center-Version deines Gerätes auch unterstützt wird, damit du nicht noch eine zweite Pleite erlebst. Da bin ich zu 100% bei dir, für mich auch nicht. In diesem Fall wirst du dich wohl von AW verabschieden müssen leider. Gruß Jörg3 Punkte
-
3 Punkte
-
Hat der das Tobii Eyeteacking? Wenn ja , dort in den Einstellungen die Dimmfunktion deaktivieren, hatte ich auch bei meinem. Die Fehlerbeschreibung ist auch sehr vage bzw. schwer zu verstehen 😉 Aber von den Symptomen her könnte es das sein, wenn ich das richtig bei dir interpretiere.3 Punkte
-
Ist im Grunde wie bei AW. Subunternehmen (IBM) werden beauftragt und der "Techniker" kommt dann nach Rücksprache zu dir. Wie überall gibt es gute und nicht so gute. Liegt einfach daran, dass die meisten "Techniker" oftmals nichts mit Gaming-Kisten am Hut haben. Manchen gehe dann sehr behutsam vor und andere .... naja sagen wir mal auf gut Glück. Kannst ihm ja den Kaufpreis vorher sagen, vielleicht passt er dann etwas mehr auf.^^ Hardware Manual an die Hand geben (aufn Tablet z.B.) schadet sicher auch nicht. Das L9 ist ja relativ selten vertreten. Ich hatte zweimal den Techniker (Lenovo) bei mir zuhause (damals beim L7). Beide Male war der Besuch sehr gut, ohne was zu beanstanden. Hat kurz durchgerufen und zwei Tage später war er da. Beim ersten Mal haben bei mir die beiden SSD Cover gefehlt, die ich selbst eingebaut habe. Der Techniker kam mit den Ersatzteilen vorbei, hat nen Kaffee bekommen und wir haben es uns in meiner Werkstatt gemütlich gemacht, während ich die beiden Kühlbleche eingebaut habe. Beim zweiten Mal war eigentlich nur die N-Taste etwas schief (lange Zeit gar nicht aufgefallen) und ich habe gleich ein komplett neues Palmrest bekommen. Wieder kam der gleiche Techniker vorbei und hat das Palmrest inkl. Tastatur gewechselt. Auch wenn ich oft an Notebooks schraube, hatte ich keine Lust auf eigene Faust das gesamte Notebook auseinander zu bauen. Zumal der Techniker versichert ist, falls was schief geht. Der Techniker war ein sehr netter junger Mann, ähnliches Alter wie ich und liebte ebenfalls potente Hardware. Entsprechend hat er sehr auf's Legion aufgepasst und sich mehrfach vergewissert, dass alles 100%ig richtig zusammengebaut wird. Lediglich bei der Heatsink habe ich kurz übernommen, wegen LM. Also alles in allem waren beide Einsätze sehr professionell und absolut zufriedenstellend. Nur weil das bei mir so war, kann ich dir keine Garantie geben, dass es auch bei dir so sein wird.3 Punkte
-
Ha, ich wusste es, also, einbau der asus 2080 ti ohne Probleme, musste keine Reihenfolgen beachten, eingelegt, angemacht, wurde erkennt und fertig. Bloß die GPU ist mir persönlich bisher zu laut, dafür das sie konstante 30-32 Grad hält, entweder ich schau mal was sich noch machen lässt, oder geht wieder weg. Aaaaaaaaber, das Gehäuse geht hinten nicht komplett zu, mir wars irgendwie klar, hängt an vermutlich ein Nippel im Gehäuse, rund 5mm fehlen sozusagen um es komplett schließen zu können. 😅3 Punkte
-
Update: Mit dem Curve Editor des MSI Afterburner habe ich etwas Undervolting bei der GeForce RTX 2080 Ti Grafikkarte ausprobiert. Da ich kein Overclocking betreibe, konnte ich die Grafikkarte mit 1.560 Mhz GPU-Core-Takt bei 0.725 mV Voltage laufen lassen. Die Werte habe ich mittels Stress-Test im FurMark sowie im MSI Kombustor sowie in zwei Games, die ich sehr gerne spiele (Jagged Alliance 3 und XCOM 2), jeweils mit maximalen bzw. ultra Settings bei 1.920 x 1.080 FHD Auflösung und 144 Hz G-SYNC auf Stabilität hin gestestet. Alles läuft prima und die Karte ist auch unter Last absolut leise bzw. meist sogar unhörbar, da der Lüfter in der Regel nur mit 15-20% FanSpeed läuft. Die Grafikkarte wird bei aktiviertem Undervolting Profil selbst bei max. Auslastung im Stress-Test nicht mehr als ca. 65-68 Grad Celsius heiß. Zudem hat sich der Stromverbrauch der Grafikkarte von ca. 250 Watt auf ca. 125-140 Watt verringert. Das ist weit mehr, als ich erwartet hätte. 😊 Im Vergleich dazu war meine im Notebook verbaute interne GeForce RTX 2080 bei Jagged Alliance 3 mit aktivierten ultra Settings schon sehr laut bzw. rauschig und das Spielerlebnis dadurch erheblich getrübt, es ei denn, ich hatte meine Noise-Cancelling-Kopfhörer auf. 😉 Parallel dazu habe ich auch die Intel i9-9900K CPU des Area-51m (R1) mittels ThrottleStop etwas undervoltet, d. h. Core und Cache laufen jeweils mit ca. 100 mV weniger und die 8 CPU-Kerne habe ich vom Boost-Takt her auf max. 4,0 GHz begrenzt. Die CPU wird damit selbst unter Last nicht mehr als 55-60 Grad heiß. Wie gesagt, so brauche ich weder bei der GPU noch bei der CPU eine max. Auslastung oder gar Overclocking, da ich keine so aufwendigen Games spiele bzw. Apps benutze und ich sowieso auf FHD "limitiert" bin. 😉3 Punkte
-
Ganz ehrlich: find ich langweilig. 16gb bei der 5090m sind 2025 zu knapp. Von den 8gb bei 5060m und 5070m fangen wir gar nicht erst an. Das ist bei vielen spielen heute schon zu wenig. 5090m wird wieder der 5080 Desktop Chip mit langsamerem Vram und stark beschnittenem Takt sein um das Powerlimit zu halten. Die 4090m hat 9728 Shader. Die RTX 5080 Desktop vorraussichtlich 10752 Shader. Das sind grad mal 10%. Gefertigt wird der Chip wieder in 5nm. Also auch da keine großen Sprünge in Sicht. Ich sehe die 5090m bei der Rasterleistung maximal 15-20% vor der 4090m. Etwas mehr wird's mit Glück bei RT Last sein. Bei den Desktop Karten kommt eben noch das höhere Powerlimit dazu welches die 5080/90 im Vergleich zum Vorgänger haben wird. Bei der 5080 sollen es 80w mehr sein als bei der 4080. Klar kann man das in zusätzliche Mehrleistung umsetzen. Das fällt beim Notebook aber weg, weswegen ich den Abstand 4090m-5090m geringer einschätze als den von 4080 Desktop zu - 5080 Desktop. Da will sich bei mir so gar kein ,,haben wollen,, einstellen. Zumal man bei Alienware eh wieder mit zu dünnen Notebooks, fehlendem OLED, zu heißen CPUs und fiependen Lüftern rechnen kann. Gehypt bin ich nur auf die 5090. Ein fast 22000 Shader Monster mit 600w und fast 2TB Speicherbandbreite klingt schon sehr lecker 😱3 Punkte
-
Nach langer Abstinenz wollte ich die Gelegenheit mal nutzen und hier wieder was posten. Diesmal auch mit ein wenig mehr hilfreichen Informationen zu Hardwareauswahl, Preise, Kauflinks etc. Auch damit man mal eine Vergleichbarkeit zu Fertig-Systemen hat. Das neue Rig sieht wie folgt aus: Verbaut ist folgende Hardware: Case: Vertikaler Benchtable Streacom BC1 V2 (150€ Caseking - bereits vorhanden) CPU: AMD Ryzen-7 9800X3D (549€ Mindfactory + 0,5% Cashback) Kühlung: Arctic Liquid Freezer 3 - 280 Black (65€ Mindfactory + 0,5% Cashback) Mainboard: MSI X870E Carbon WiFi (444€ Galaxus + 6% Cashback) RAM: Patriot Viper Venom DDR5-7200 32GB (2x 16GB) (109€ Mindfactory + 0,5% Cashback) GPU: MSI RTX 4080 Gaming X Trio (1.329€ am 12.2022 bei MF + 0,5% Cashback - bereits vorhanden) SSD: 2TB Samsung 990 Pro (vorhanden) + 2TB Kioxia Exceria Plus G3 (89€ Mindfactory + 0,5% Cashback) PSU: Corsair AX850 Titanium (120€ gebraucht übernommen damals - bereits vorhanden) Optional_1: Thermaltake Toughfan Pro 140 2er Set (38€ Amazon) Optional_2: Thermal Grizzly AM5 Sealing Frame (22€ ProCooling) Optional_3: Schwarz gesleevte PSU Kabel Type4 (50€ KA - bereits vorhanden) Optional_4: Gewinkelter 12VHPWR GPU Stromkabel Type4 (25€ Corsair + 1,5% Cashback) Gesamt 2.990€ (ohne Abzug von Cashback und Berücksichtigung von vorhandenen Teilen) Case: Da ich häufig auch Systeme für andere Leute baue, langweilen mich Gehäuse einfach etwas. Daher habe ich mich schon damals für ein offenes Gehäuse entschieden. Benötigt nur wenig Platz auf dem Schreibtisch, Stauwärme gibt's nicht und man spart ordentlich Geld für Gehäuselüfter. Allerdings erfordert die Umsetzung etwas handwerkliches Geschick. Dafür bekommt man aber auch einen schicken Eyecatcher (Unikat) und wenn man mal ans System muss, kommt man easy überall dran. CPU: Wenn der Fokus auf Gaming liegt, gibt's keine bessere CPU zurzeit, egal ob Leistung oder Effizienz. Und diesmal sogar mit der Möglichkeit auf OC und UV Spaß. Problem ist aktuell nur die Verfügbarkeit und teilweise der Preis. Kühlung: Hier hatte ich ein wenig überlegt, ob ich wieder eine AIO mit Display nehme, aber ehrlich gesagt habe ich mich an Displays und RGB ziemlich satt gesehen. Die Arctic LF3 ist aus mehreren Gründen ein absoluter Nobrainer: Stärkste AIO am Markt durch dicksten Radiator + Offset Mounting, Regelbare Pumpe und VRM Fan über PWM, Deutscher Hersteller mit 6 Jahren Garantie, Preislich einfach unschlagbar als Gesamtpaket. Durch die große Kühlleistung kann man selbst unter Last die Kühlung auf dem Minimum laufen lassen. Pumpe läuft bei mir auf 30% (unhörbar) und Lüfter drehen bei ~600rpm. Praktisch auch unhörbar und ich sitze direkt neben einem offenen System. Mainboard: Das MSI ist es geworden, weil ich zum einen nichts zu sehr verspieltes "alle sollen wissen das ich ein Gamer bin" haben wollte und mit überwiegend schwarz ist es relativ schlicht gehalten. Preislich ist es wie alle X870E Bretter nicht unbedingt günstig, bietet aber für den Preis solide Features und ein durchdachtes Layout. Insbesondere, weil man beim Carbon Wifi 3 der 4 m.2 Slots belegen kann, ohne PCIe-Lanes von der GPU zu klauen. Dank USB4 Verpflichtung der X870-Reihe, haben viele Boards diesen Nachteil. *Und MSI wegen MSI GPU. GPU: MSI Karten sagen mir qualitativ und optisch, neben der Founders, noch mit am meisten zu, vor allem weil diese immer sehr leise sind und gut kühlen. Im Gaming kann ich die GPU-Lüfter dauerhaft auf dem (sehr leisem) Minimum (30%) laufen lassen. *Zudem kann ich mit einer Software (MSI Center) Board und GPU steuern (Beleuchtung, Lüfter). Ist halt praktisch, wenn man nichts zusätzlich installieren muss. RAM: Grundsätzlich ist bei Ryzen 7000 & 9000 bei 6000 MT/s der Sweetspot. Da ich aber Spaß am Optimieren habe, habe ich 7200er Riegel gekauft, da ab dieser Geschwindigkeit normalerweise immer Hynix A-Die RAM-Chips verbaut sind (+ Richtek PMIC), die sich für Optimierungsvorhaben am besten eignen. Und mit 109€ kosten sie nicht wirklich mehr als gute 6000/ 6200er Kits. (und zum Glück kein RGB^^). Einziger Nachteil: es kein Plug & Play AMD EXPO Profil vorhanden, sofern man sowas überhaupt als Nachteil ansieht. Interessanterweise erkennt das MSI Board, dass Hynix Chips verbaut sind und bietet ein vordefiniertes Hynix-Profil für AMD CPUs an, welches auch direkt auf Anhieb problemlos lief. Daher ist das Kit sowohl für Leute interessant, die selbst alles einstellen möchten, als auch für Leute, die einfach nur XMP/ EXPO laden und direkt loslegen wollen. PSU: Netzteile sind immer so ein Thema. Von allen üblichen Herstellern (BeQuiet, Seasonic, etc.) gefällt mir Corsair am besten. Liegt einfach daran, dass man dafür problemlos Zubehör wie gesleevte Kabel oder 90° gewinkelte GPU-Kabel bekommt. Wenn einem Optik wichtig ist, kommt man fast nicht um Corsair vorbei oder wird ein Vermögen bei CableMod los. Wie sinnvoll ein Titanium Netzteil ist, muss jeder für sich selbst entscheiden. Cybernetics bietet hierfür so ziemlich die beste Datenbank an. Mein Kaufargument für ein Titanium-Netzteil ist die Effizienz auch im Light-Load-Betrieb (Browsing, Office, Discord/ Forum etc.) und der praktisch nie zum Einsatz kommende Lüfter, zumindest hab ich ihn noch nie gehört. Problem ist bloß, dass es nur sehr wenige Titanium Netzteile in einer halbwegs realistischen Dimensionierung (750-1000w) für Gaming-Systeme gibt. Das FSP Hydro Ti Pro wäre da eine Alternative zum Corsair AX850, aber dann muss man sich mit den Kabeln begnügen. Optional_1: Grundsätzlich sind die beiliegenden Arctic P14 Lüfter ganz gut. Will man aber das beste und leiseste haben, gibt man halt ein paar Kröten mehr aus. Find's halt super angenehm, dass das System selbst im Gaming einfach weiterhin extremst leise bleibt. Daher das kleine Upgrade auf die Toughfan Lüfter, sehen auch optisch besser aus. Optional_2: Auch dieses Zubehör ist nicht wirklich notwendig. Kühlverbesserung ist, wenn überhaupt, nur minimal zu erwarten. Gleichmäßiger Anpressdruck kann RAM-Performance zuverlässiger machen und der Rahmen hilft bei der Sauerei mit der Wärmeleitpaste. Außerdem gefällt er mir optisch, auch wenn man davon später nicht viel sieht. Ist einfach das i-Tüpfelchen für's neue System. Optional_3 & 4: Hauptsächlich gekauft wegen Optik und es sind keine Verlängerungen, die man günstig anstecken könnte. Die Kabel sind von Anfang bis Ende vernünftig gesleevt + Filter-Caps in den Kabeln. Macht optisch und qualitativ schon was her. Gesamtpreis: Zählt man alles mit Neupreis zusammen, kommt man auf 2.990€. Jedoch ohne Abzug von Cashback und den Teilen, die ich bereits besessen habe. Der riesen Vorteil von einem (normalen) PC, ist die Upgradebarkeit. Netzteil, GPU, Benchtable usw. hatte ich bereits alles da. Entsprechend waren die Kosten auf das Upgrade 9800X3D recht überschaubar. Zumal sich das Zeug, entweder komplett oder einzeln, recht einfach verkaufen lässt. Wenn die jetzt RTX 5000 kommt, kann ich im Grunde alles so lassen, die 4080 verkaufen und die 5080 einfach einstecken. Mit OEM Hardware ist das alles nicht so einfach. Abschließend: Das Thema Ich MUSS bei einem Nicht-OEM-PC viel selbst einstellen, kann man ganz klar verneinen, gerade mit Ryzen X3D CPUs. Man hat sicherlich die Möglichkeit, so ziemlich alles nach seinen Bedürfnissen einzustellen, aber man muss das keineswegs. Vieles läuft out of the box bereits sehr gut. Beim X3D kann man sowieso nicht viel einstellen bzw. lohnt sich nicht unbedingt. Einfach RAM auf XMP/ EXPO stellen und Abfahrt. Selbiges auch bei den Lüftern/ Kühlung. Entweder nimmt man eines der vorhanden Profile (Quiet, Balance, Performance) oder definiert seine eigenen Lüfterkurven.3 Punkte
-
Hier mein Fazit nach nun 4 Tagen mit dem Aurora. Ich glaube die erste Frage die man sich stellen Sollte um ein Fazit ziehen zu können ist, für welche Zielgruppe ist der Aurora R16 geeignet? Meiner Meinung nach ist die Zielgruppe folgende: Man möchte alles aus einer Hand haben und im Garantiefall abgesichert sein (Premium Support) Man möchte nicht selber ein System zusammen stellen oder kennt sich schlichtweg nicht aus Man möchte das, dass System "Out of the box" einfach funktioniert Man möchte sich nicht mit BIOS Einstellungen, Software, Overclocking, Undervolting und Lüfterkurvern auseinandersetzen --> Starten und loslegen mit dem Zocken Man möchte High End Hardware zu einem angemessenen Preis (mit Rabatten und ggf. Cashback) Für den Aurora R16 trifft alles zu, gut zum Support kann ich noch nichts sagen, aber den kenne ich ja von den Laptops her. Im Zweifel erhält man ein neues Gerät Was trifft nun für mich zu mag sich der ein oder andere fragen. Tatsächlich ist es bei mir etwas "widersprüchlich", da ich mich ausgezeichnet mit Hardware/Software auskenne und bereits diverse Systeme selbst zusammen gebaut habe. Ich merke bei mir jedoch den Trend, dass ich mittlerweile zu den Leuten gehöre "Es muss einfach funktionieren, ich habe nicht mehr die Zeit/Lust alles bis ins letzte Detail einzustellen". Ich glaube das ist auch, was mich am Aurora r16 am meisten beeindruckt, es funktioniert einfach. Nach einigen Updates passt alles tadellos (Dell Bloatware sollte man natürlich immer deinstallieren). Ich muss mich nicht mit BIOS, Software, Treibern oder Lüfterkurven herumschlagen. Ich mache den Rechner und er tut was er soll. Bleiben vielleicht 5 -10% Leistung auf der Strecke, ja kann sein. Nehme ich aber gerne im Kauf, wenn ich mich wieder rein auf das Zocken konzentrieren kann Ich für meinen Teil kann den Aurora R16 in meiner Konfiguration uneingeschränkt empfehlen. Der einzige Nachteil, ist die Aufrüstbarkeit, dass muss aber jeder für sich selbst einordnen. Ich war noch nie der Typ der ein System bis zum "Alterstod" behält und dann anfängt einzelne Komponenten "upzugraden", daher passt es für mich so wie es ist.3 Punkte
-
Das Gerät ist nur mit DDR4 (SO-DIMM) kompatibel. Sowohl vom Intel Sockel/ CPU her, als auch vom RAM-Slot und damit den technischen Spezifikationen (Spannung, Takt, Timings etc.). SO-DIMM DDR4 und DDR5 unterscheiden in der Hardware ehrlich. DDR4 hat die Einkerbung an einer anderen Stelle, um Verwechselungen auszuschließen. Zudem sind bei DDR5 ganz andere technischen Anforderungen gegeben (Tracing, Haupt- & Nebenspannung, Kompatibilität zur CPU etc.) Hat der User nicht zu entscheiden. Bestmögliches Profil wird aus dem RAM SPD beim POST geladen und das war's. Ausnahme waren die super exotischen "OC" RAM Sticks, die Dell für teuer Geld bei ADATA branden ließ und zusammen mit dem Area51m verkauft hat (hatten nur etwas mehr Takt). Bin mir gerade gar nicht sicher, ob's nicht erst beim Area 51m R2 der Fall. Jedenfalls, selbst irgendwas großartig tweaken oder falsch was einstellen kannst du da nicht. Persönlich vermute ich hier am ehesten die Fehlerursache. Schließlich wird über "Memory Installation" gemeckert. Bei PC Mainboards mit vier RAM-Slots sollte die Bestückung wie folgt sein: Wenn Sammy217 zwei Sticks hat und beide nur in Kanal A oder nur in Kanal B stecken, kann es diesen besagten Fehler beim Boot verursachen. Topologie beim Area51m weiß ich gerade nicht aus dem Kopf. Schaut man sich aber einige Teardown-Videos an, sind die Slots zumindest durchnummeriert, was ein Indikator für die richtige Bestückung sein kann: Würde daher die beiden Sticks wie im letzten Bild einsetzen. Normalerweise sollte das Area51m dann nicht mehr meckern.3 Punkte
-
Hier der Installer aus dem Dell-Archiv. P.S.: Ein flinker Finger auf der ESC Taste ist notwendig3 Punkte
-
Entwarnung für mobile CPU's - nach folgenden Aussagen sind sie wohl definitiv nicht betroffen: Stellungnahme: Intel findet die Ursache für instabile Core-CPUs (pcgameshardware.de) News | Info zur Stabilität von Intel Core-CPUs in Laptops (xmg.gg)3 Punkte
-
Moin Jörg, ja..... Razer und Service (Garantie etc.) ist halt ein echtes Problem. Die Geräte an sich sind schon ganz schick, aber wenn damit mal was ist, wird's echt sehr schwierig. Hoffe, dass @Shadowre da irgendwie noch einen kostenlosen Austausch bekommt. Der Werksreset ist halt... typisch Protokoll. Als nächstes kommt vermutlich der Vorschlag, ein BIOS Update durchzuführen. Den Laden, den ich hier und da mal erwähne, ist dieser hier: https://www.notebook-reparaturdienst.de/ Ist einer der wenigen Butzen, die noch richtige Lötarbeiten machen. Hat mir damals einen 30-Pin eDP-Stecker wieder ans Board gelötet. 95% aller anderen Läden können nur 1 zu 1 Teile austauschen und nicht wirklich reparieren.3 Punkte
-
Hey zusammen, habe vorgestern das Acer Predator Helios 18 mit WQXGA miniLED, 14900HX, und RTX 4080 getestet. Mal in Kürze: gut bzw. besser verarbeitet als man denkt. Tastatur und Trackpad auch ganz ok Sound schlecht recht schönes Lüftergeräusch und im Balanced-Mode auch nicht zu laut (aber bin mittlerweile durch die Desktop-PCs total verwöhnt) das altbekannte Problem der Intel-CPUs: zu wenig Leistung bei geringer TDP. Ich stecke so z.B. bei "The First Descendant" im CPU-Limit und kann dort (Startgebiet "Albion") "nur" ~80 fps erreichen. Mein 7800X3D im Desktop limitiert bei ähnlicher Leistungsaufnahme hier erst bei ~180 fps. Das sind +125% mehr fps! Flüssig wirkt das Spiel also erst mit dem Desktop-PC (80 fps wirken für mich schon länger nicht mehr flüssig). Selbst im zu lauten "Leistungsmodus" liegen die fps bei ca. 110. Am Anfang liegen sie mit ~135 höher, bis dann nach wenigen Minuten PL1 und/oder ein Temp-Limit eingreift (müsste nicht sein, auch bei einem Laptop nicht, Stichwort Ryzen 9 7945HX3D...) das miniLED kann extrem hell werden, selbst für den Tag unnötig hell. Nur gut, wenn man damit bei direkter Sonneneinstrahlung sitzen würde (wer macht das mit einem Laptop? Am Smarthone gut, klar). Allgemein hat es vom Bild-Gesamteindruck her keine Chance gegen meinen neuen 31,5" UHD-QD-OLED-Monitor (mega). Zudem hat es helle Höfe um helle Inhalte herum bei sonst schwarzem Hintergrund. Man bräuchte beim miniLED viel mehr Dimmzonen, so wie beim MacBook Pro z.B. (aber OLED hat es halt gar nicht erst nötig... und die Helligkeit der OLED-Panels reicht für all meine Zwecke) geht Retoure (für mich ist die beste Kombination ja seit über 1,5 Jahren eh Desktop-PC + mobiles Laptop. Zocke meistens am Schreibtisch/Monitor, aber auch immer wieder mal auf der Couch im Couchmaster. In diesem Moment streame ich vom Desktop-PC auf das mobile OLED-Laptop, was wie an anderer Stelle schon mal erwähnt im gleichen Standort sehr gut funktioniert - gutes WLAN o. LAN vorausgesetzt, und auch ein Router mit schneller CPU für gute Latenzen)3 Punkte
-
Ich sehe die Intel-Problematik bereits von Anfang an in Bezug auf Gaming-Notebooks etwas kritisch. Bei den Desktop-CPUs gab's jetzt immerhin eine Garantie-Erweiterung seitens Intel, aber bei 4000€+ Notebooks wird sowas niemals kommen und man ist als Kunde der Angeschmierte. Finde, dass gerade Gaming-Notebooks in dieser Debatte zu wenig Beachtung bekommen, obwohl es die gleichen Problem-Chips sind. Fakt ist jedenfalls, dass auch beim 13900HX, 13980HX und 14900HX ähnliche Probleme nicht ausgeschlossen sind. Intel hat hierzu folgendes Statement rausgehauen: "Intel 14th & 13th Gen Laptop CPUs not affected by same instability issue as desktop chips". Quelle WCCFtech. Quelle2 TomsHardware. Mag sich ja toll anhören, allerdings ist man sich auch hier irgendwelchen Problemen bewusst. Alderon Games hat auf Reddit dazu folgendes Statement gepostet: Was dann später von TechSpot und anderen Seite aufgegriffen wurde. XMG war zumindest selbst investigativ tätig und hat folgende Tabelle dazu erstellt: So wie es ausschaut, wird beim 14900HX (und 13980HX) nochmals ne ganze Ecke mehr Spannung angelegt (angefordert). Zusammen mit der hohen Betriebstemperatur unter Last im Notebook wird es die Lebensdauer sicherlich nicht verlängern. Screenshot von nem Legion: (VID 1,578v im Max) Da man die CPU im Notebook nicht einfach tauschen kann und ein umlöten sich finanziell nicht lohnt, Intel auch keine Verantwortung übernehmen wird, scheint eine Garantieverlängerung hier wohl die einzig sinnvolle Maßnahme zu sein. Die man natürlich erstmal selbst bezahlen darf -.-. Insbesondere bei Dell/ AW ist das keine unerhebliche Summe. Für die Besitzer von Gaming-Notebooks mit Intel i9 ist die ganze Intel-Nummer jedenfalls sehr nachteilig. Wenn nicht in der Leistung oder Funktion, dann spätestens im Wiederverkaufswert und für's Verkaufsinteresse insgesamt. Jemand der halbwegs im Thema ist, wird keine 2000€ für ein gebrauchtes Notebook ausgeben, welches dieses Problem haben könnte. Würden die mobilen CPUs so zuverlässig und problemlos laufen wie Intel behauptet, hätten sie schon in irgendeiner Form dafür die Verantwortung (z.B. Garantieerweiterung) übernommen, um wenigstens etwas Vertrauen zurückzugewinnen. Allerdings kam bislang von Intel nur kleine Statements und wie Alderon Games schrieb (down playing the issue) wird das Problem eher kleingeredet.3 Punkte
-
Das vom M17X wird nicht passen, ganz anderes Design , schau mal bei Tante Google , eBay oder Kleinanzeigen, da gibt's neue MB (teuer) oder von einem Schlachter ausbauen. Das günstigste welches ich in neu gefunden habe bei AliExpress war für 330€.3 Punkte
-
1. kannst du dir selbst die passenden Heastinks dafür bestellen (AliExpress & Co.) 2. sind die 990 Pro aktuell mit die besten PCIe 4.0 SSDs, würde mich daher nicht beschweren 3. Installiere mal Samsungs Magician Software und stell die SSDs auf Power Saving Mode3 Punkte
-
zur Vereinfachung der Neuinstallation gibt es nun dieses "Recovery Tool" von Dell, was anhand des einzugebenden Service-Tag ein Windows Abbild mit den dazugehörigen Treibern als USB-Installationsstick erstellt. Hab das mal an meinem X51 R3 ausprobiert und es hat bis auf ein, zwei fehlende Treiber im Gerätemanager ganz gut funktioniert. Das war dann noch der IntelHD/Grafik- und der Intel-Management-Engine- Treiber offen, was aber dann auch über Win-Update noch eingespielt wurde.2 Punkte
-
Für Nvidia war GN's Video natürlich ein Segen, weil man so immer dem "dummen User" die Schuld in die Schuhe schieben konnte. Der Stecker und so wie letztendlich nach und nach verschlechtert wurde (weniger Sicherheitsfeatures), war natürlich keine Fehlkonstruktion. NorthrideFix hat auch nur zufällig weit über 200 dieser Stecker umgelötet (lt. seiner Aussage - Video). Daher wenig verwunderlich, dass Cable-Mod relativ schnell das Handtuch geworfen hat und jedem Käufer des 90° Adapters restlos das Geld erstattet hat. Bei so einer Problematik will keiner die Hand ins Feuer legen (im wahrsten Sinne des Wortes) und die Verantwortung dafür tragen. Ich verstehe auch Nvidia nicht... ein Milliarden-schwerer Konzern, der sich die besten Elektro-Ingenieure der Welt einkaufen kann bzw. vielleicht auch hat, ist nicht in der Lage dieses Problem zu fixen. Und das, obwohl es schon bei der 4090 mit 450w Limit Probleme gab, selbst nach gefühlt 10 Überarbeitungen mit kürzen Sense-Pins, H++, farbigen Steckern usw. Anstatt vielleicht gänzlich über den Stecker und dessen Implementation nachzudenken (kein Load-Balancing, keine Thermal-Abschaltung), wird einfach fröhlich weiter gemacht, PL auf 550-600w angezogen und die Implementation sogar noch weiter verschlechtert (siehe Buildzoid). *kopfschüttel* Was soll schon schiefgehen? Dann ist es halt User-Error und gut is.2 Punkte
Diese Rangliste nutzt Berlin/GMT+02:00 als Grundlage