Zum Inhalt springen

Robman

Mitglied
  • Gesamte Inhalte

    871
  • Benutzer seit

  • Letzter Besuch

  • Tagessiege

    41

Alle Inhalte von Robman

  1. Definitiv. Nur eine Frage der Zeit. Dennoch ärgerlich bzw. eigentlich kaum hinnehmbar.
  2. Ja. Steht auch noch in den zu patchenden bugs. Was Nvidia in letzter Zeit so treibt, ist wirklich etwas enttäuschend. Hatte auch zu Anfang Probleme mit der Desktop-5090, aber das haben sie in den Griff bekommen. Aber kamen/kommen ja ständig neue Treiber. Ein Nachtrag noch zum 2560x1600px Display vom Asus ROG Strix SCAR 18 2025. Ich hatte es ja für ein miniLED gelobt - außerdem hatte ich gesagt, dass diese Auflösung für 18" grundsätzlich reicht (mehr PPI als 3840x2160px @32") - daran ändert sich auch nichts, aber gleichzeitig muss ich sagen, dass das Bild bzw. eben auch der Text auf dem 32er OLED besser aussieht, schlechtere PPI hin oder her. Ein Wow-Effekt wird sich also erst mit 3840x2400px @18" einstellen. Das ist ja jetzt auch nix Neues, beide Auflösungen gab es die letzten Jahre bei Laptops auch schon. Dank DLSS Perfomance oder Ultra Perfomance sollte diese Auflösung eigentlich auch nicht mehr das größte Problem darstellen. Das ist natürlich dann doch ein großer Vorteil des MSI Raider oder des Razer Blades - letzteres hat aber nur ein normales IPS, also weder miniLED, noch OLED (analog zum Alienware). Das der Korrektur / Vollständigkeit halber.
  3. Liefere ich bis Mittwoch. Du weißt ja, dass dort nur die 5080 drinnen ist. Aber ich denke, du willst mit dem Raider mit 5080 vergleichen. Bedenke aber, dass die maximale Punktzahl in Benchmarks nicht entscheidend ist, sondern das CPU- und/oder GPU-Limit. Da dein bestelltes Raider eine andere (X3D-)CPU hat, kann sich das ganz anders verhalten - sehr wahrscheinlich im nicht unwichtigem CPU-Limit besser (gleichzeitig könnte es theoretisch durch einen anderen Takt / Boost / Kühlung usw. @ 5080 weniger Punkte bei den Benchmarks abliefern). Aber ich denke das ist dir klar und du überbewertest TimeSpy & Co. nicht. Zum Asus ROG Strix SCAR 18 2025 hatte ich ja paar Posts zuvor schon einiges geschrieben. Hab bei drei Spielen nun noch mit dem Desktop verglichen: CPU-Limit-Test (geringe Auflösung usw.) (Werte in Klammern = 1% low) Cyberpunk 2077 275HX 5600 CL46: 165 (134) fps 9800X3D 6000 CL30: 283 (233) fps (+72%) AC Shadows 275HX 5600 CL46: 192 (177) fps 9800X3D 6000 CL30: 262 (245) fps (+36%) Black Myth Wukong 275HX 5600 CL46: 211 (101) fps 9800X3D 6000 CL30: 322 (151) fps (+53%) Wie "Just Josh" schon sagte, ist das größte Benefit dieser Laptop-Generation, dass die CPUs endlich auch mit unter 100 W (Crossload) schnell geworden sind. Er nennt im Video +58% für "Real World Gaming 1%" (14900HX/4090 vs 275HX/5090), was ich so bestätigen würde (hatte ja auch schon Laptops mit 13900HX u. 14900HX da). Ich wollte ja noch schnelleren Ram (6400 CL38) testen, aber hab ich nun doch nicht mehr gemacht. Er liegt zwar hier, aber aktuell wenig Lust. Würde sicher einiges bringen, aber der Unterschied zum 9800X3D ist dennoch groß bzw. der 9955H3XD vom Raider sollte im CPU-Limit @Gaming stets besser performen, egal welcher Ram der 275HX hat. So oder so muss man sagen, dass die schnellste Desktop-Gaming-CPU bzw. der 9800X3D sehr weit entfernt ist, daran wird auch der mobile 9955HX3D nicht viel ändern. Mit einem 240 Hz Monitor profitiert man entsprechend von so hohen (min-)fps des 9800X3D mit schnellem Ram. Fakt ist aber auch, dass ich durch den 9800X3D sehr verwöhnt bin - die aktuellen Laptops sind (eben auch im CPU-Limit) alles andere als langsam! Jetzt zum GPU-Limit-Test: 2560x1600px @ Laptop, 3840x2160 @ Desktop (ja, unfair, mehr dazu später) High-Preset DLSS Balanced oder Perfomance, je nach Spiel Werte in Klammern = 1% low mobile GPU @ ~170 W (im Maximum) Desktop-GPU @ 75% PL / ~430 W (im Maximum) Cyberpunk 2077 Mobile 5080: 148 (123) fps Desktop-5090: 189 (168) fps (+~28%) AC Shadows (mit FG) Mobile 5080: 146 (136) fps Desktop-5090: 192 (179) fps (+~32%) Black Myth Wukong Mobile 5080: 126 (85) fps Desktop-5090: 151 (106) fps (+~20%) Die mobile 5090 bringt laut notebookcheck Benchmarks bei 2560x1600px übrigens nur ~5% mehr fps als die mobile 5080 (erst bei 3840x2160px sind es ~10%). Wie gesagt: Der Laptop wurde in 2560x1600px getestet. Der Desktop-PC in 3840x2160px. Unfair, aber so wäre es bei mir (und auch bei so einigen anderen) nun mal in der Praxis (keine Nutzung von externem Monitor bei Nutzung von Laptop). Wenn man das integrierte Display bei nativer Auflösung nutzt, dann könnte man auch sagen, dass die mobile 5080/5090 bei 2560x1600px schneller ist als die Desktop-4080/5070Ti bei 3840x2160px. Bei gleicher Auflösung bzw. bei 3840x2160px oder höher ist der Unterschied dann schon groß (analog zum CPU-Limit). Ich werde das Asus ROG Strix SCAR 18 2025 nun retournieren. Nicht wegen der Perfomance, sondern weil ich aktuell keinen richtigen usecase habe. Aber wer ein gutes 18" Laptop sucht, dem kann ich es wärmstens empfehlen. Ich muss aber dazu auch sagen, dass ich noch kein anderes dieser Generation getestet habe, so dass das MSI Raider theoretisch auch gut sein könnte. Auf jeden Fall hat sich in der Laptop-Welt einiges getan (CPU-Limit, Displays, Tastatur, Trackpads, rauschige Lüfter). Edit: Ich sollte den 9955HX3D eigentlich auch noch testen, dann kann ich dessen Wert (bei natürlich gleichen Testbedingungen) in meine oben genannten Benchmarks in die Mitte zwischen 275HX und 9800X3D eintragen (aber sicherlich deutlich näher am 275HX - das ist ziemlich sicher). Edit 2: @pitha1337 Damit ich nicht extra noch ein 9955HX3D Laptop bestellen muss, teste bitte mal Cyberpunk 2077 im CPU-Limit: 1280x720px, vieles deaktivieren oder auf niedrig setzen, DLSS Perfomance, kein RT, kein FG und dann den dortigen Benchmark laufen lassen. Dann hängst du auf jeden Fall im CPU-Limit. Natürlich auch schon vorher, aber so geht man auf Nummer sicher. Den gleichen Test mache ich dann mit dem 275HX. Ich schicke dir noch Screenshots der Ingame-Settings per PN. Bevor jetzt jemand sagt "in der Auflösung spielt doch keiner, was soll das" -> natürlich kommt man auch immer mal wieder in hohen Auflösungen (und mit hohen Details) in ein CPU-Limit (nicht in allen Spielen). Es sei denn man spielt grundsätzlich mit wenigen fps, z.B. 40-70 und hat eine schnelle CPU. Pitha1337 soll die geringe Auflösung nur für den Test nehmen, damit man sich konstant sicher im CPU-Limit befindet (man isoliert die CPU-Leistung so) und man somit eben gut CPUs miteinander vergleichen kann und eben auch ein aussagekräftiges sowie unverfälschtes Ergebnis erhält (weil so die GPU nie Volllast erfährt und limitiert). Viele hier oder die meisten wissen das wahrscheinlich, aber wir haben ja auch immer mal Leser, die sowas nicht wissen.
  4. Müsste ein bekannter aufgelisteter bug sein, der auch im heutigen Nvidia-Treiber noch nicht behoben wurde.
  5. Ah ok. Und ich habe oben noch so einiges editiert und hinzugefügt. Bei Interesse nochmal lesen.
  6. Also, zum ROG Strix SCAR 18 (2025) G835: Leistung: Zur Leistung im CPU-Limit (275HX 5600 CL46): 114-140 fps (bei um die 90 Watt) bei 180 Grad Umsicht im aktuellen Cyberpunk 2077-Savegame. Der Desktop (9800X3D 6000 CL30) schafft im gleichen Test mit gleichen Ingame-Settings 170-240 fps (+49-71%). Jeweils ohne Frame Generation. Das ist nicht so schlecht, zumal der 9945HX3D statt 114-140 fps hier bestimmt 135-165 fps schafft. So extrem weit zum 9800X3D mit schnelleren Ram ist das dann auch nicht. Eigentlich schon, aber die fps sind eben trotzdem schon recht hoch und zu gebrauchen. Ich werde noch 6400 CL38 testen (5600 CL46 ist nicht gerade viel), das wird die fps und vorallem die min-fps um einiges erhöhen. Natürlich ist es mit der CPU kein Problem, in Spielen wie Overwatch, CS, Marvel Rivals, Delta Force usw. über 200 fps zu erreichen, klar. CP2077 ist schon ein forderndes Spiel, und das auch im CPU-Limit, daher teste ich damit gerne. Zum GPU-Limit sag ich nichts, die Leistung der mobilen 5080 und auch 5090 ist bekannt (letztere lohnt sich nur so richtig bei Nutzung von UHD als Basis). Da bei 18" oder niedriger 2560x1600px reichen, bekommt man so einige fps frei. Zudem kann man mit Ingame Settings das GPU-Limit verschieben (das CPU-Limit schlecht bis gar nicht) Lüfter: Überwiegend rauschig, auf jeden Fall echt in Ordnung. Sie sind komplett (ohne Firmware-Eingriff) mit "G-Helper" steuerbar, aber ehrlich gesagt reicht schon der "manuelle Modus" in Armoury Crate aus. G-Helper ist aber dennoch zu empfehlen, weil es im Gegensatz zu den ganzen Asus Diensten (mindestens acht) und der großen Asus Armoury Crate Software schnell und schlank ist. Der manuelle Modus bei Armoury Crate (oder eben G-Helper) ermöglicht die maximale Leistung bei gleichzeitig erträglichen bzw. benutzerdefninierten Lüftern. Im Gegensatz zu "G-Helper" gibt es in den Lüfter-Kurven Grenzwerte, die nicht unterschritten werden dürfen, aber Asus lässt einen viel Spielraum. Bei Cyberpunk 2077 (heftig für die CPU) im CPU-Limit throttelt der 275 HX zu jeder Zeit (4,2-4,7 GHz je nach Kern - mit maximalen Lüftern). Wenn man die Lüfter reduziert, kommt man eben auf paar Hundert MHz weniger, was nicht gleich sehr viel an fps ausmacht. Andere Spiele wie Assassins Creed Shadows z.B. ermöglichen mehr Takt auf den Kernen. Es empfiehlt sich die Leistung weit nach oben zu ziehen, und bei den Lüftern zu schauen, wieviel Leistungsaufnahme und somit auch Takt man dann noch hat. Hier muss jeder für sich nach Lüfter-Lautstärke-Vorliebe den Sweetspot einstellen. Ich habe einfach die Mindest-Grenzwerte von Asus genommen: 4.000 rpm @ CPU im Maximum 3.600 rpm @ GPU im Maximum 5.700 rpm @ System im Maximum Armoury Crate gibt hierfür 37,7 dBA aus, was sicher hinkommt, es ist angenehm. Je nach Spiel und Last sind es dann nur ein paar fps weniger, aber deutlich leiser. Display: 2560x1600px reichen bei 18" (mehr PPI als 3840x2160px @32") Wenn man in Games das FOV etwas erhöht, hat man im Horizontalen keinen Nachteil (an den Seiten nichts abgeschnitten) gegenüber 16:9, nur dass man dann eben noch die Höhe von 16:10 hat (also wie unter Windows). Oder man spielt direkt in 16:9, durch die pechschwarzen Balken oben und unten fällt das gar nicht auf, vorallem abends Das miniLED mit 2.000 Zonen ist gut, ist auch nicht körnig oder so. Im Vergleich zu meinem 32" OLED sieht man in Extremsituationen immernoch die Nachteile der Technologie. Aber Jammern auf hohem Niveau. Das MiniLED kann zudem unnötig hell werden (Luxusproblem), was ich niemals brauchen werde (benötige ich nur am Smartphone und am mobilen 14" Laptop) Sound: Nur ok. Deutlich schlechter als von meinem 14er MacBook Pro (und auch vom ROG Zephyrus G16, was ähnlich in dieser Hinsicht ist) Mehr kann ich zum Sound nicht sagen, ist nicht so mein Bereich. Hab nirgends was verstellt Tastatur: Sehr gut, wertig und komfortabel Design, Qualität, Haptik: Wie schon auf der vorherigen Seite gesagt, alles ziemlich gut und deutlich besser als erwartet. Ist schon ein schönes Stück Technik. Dieses Habenwollen-Gefühl kommt bei mir auf, aber so richtig Sinn macht es für mich nicht (weiter unten dazu mehr) Es gibt eigentlich nur ein Modell, was ich auch noch interessant finde: Das Razer Blade 18. Aber hier kann eigentlich nur die Materialwahl besser sein, sonst nichts. Display, Tastatur, Lüfter(steuerung) werden definitiv das Nachsehen für mich haben. Und designtechnisch finde ich das Scar schon wirklich sehr schön. Und andere (MSI, Aorus, XMG, Alienware) reizen mich allgemein irgendwie gar nicht (und Alienware hat auch kein miniLED o. OLED). Insofern würde es wohl das ROG Strix SCAR 18 (2025) werden, sofern ich mir ein 18" Laptop anschaffe (oder das jetzige behalte). Ich bin mir noch nicht sicher, ob ich einen meiner beiden Desktop-PCs wirklich damit ersetzen soll. Lasse mir viel Zeit. Momentan spiele ich an einem mobilen 17,3" Display (verbunden mit Desktop-PC) im Couchmaster, wenn ich nicht am Schreibtisch/Monitor oder am TV zocken möchte. Und das ist eigentlich komfortabler, da die Tastatur unabhängig vom Bildschirm ist (und man auch mit dem Handballen nicht auf der Baseunit-Kante vom Laptop hängt). Zudem gibt es natürlich weitere Vor- und Nachteile, muss ich mal sehen. Außerdem wäre mir der 9945H3D im ROG Strix SCAR 18 viel lieber als der 275HX (Akkulaufzeit ist mir bei einem 18" Laptop recht egal). Möchte wenn schon nicht so viele fps verlieren. Im Scar 17 hatte Asus den 7945HX3D, insofern stirbt die Hoffnung zuletzt (insofern werde ich das jetzige mit 275HX wohl innerhalb der zwei Wochen retournieren, wenn dann noch eins mit 9945X3D kommen sollte, würde ich wohl erneut überlegen). Es sieht aktuell so aus, als kommt keine X3D CPU ins Scar oder Blade. Ich teste in Kürze 6400 CL38 (gegen die stock 5400 CL46), das dürfte nochmal einiges im CPU-Limit beim 275HX bringen. Unterm Strich ist er auch jetzt schon eine recht gute CPU.
  7. Im professionellen Bereich natürlich auch nochmal viel nützlicher (alleine schon wegen sehr viel Ram und Speicher). Allgemein auf jeden Fall gut, dass es dieses Modell / Angebot gibt.
  8. War mir nicht bekannt. Ist ein richtiger Brocken. Spricht mich auch irgendwie allgemein nicht an. Macht für mich auch nur Sinn, wenn die Limits höher sein könnten / wenn es noch hungrigere mobile Chips geben würde, da man beispielsweise mit dem 3,3 kg (vergleichsweise) leichten Asus ROG Strix Scar 18 schon ausreichend Leistung bei um die 40 dB(A) bekommt. Mehr dazu später.
  9. Das Gerät kam schneller als gedacht, hab heute/morgen schon was anderes vor. Zumindest tagsüber, heute Abend werde ich wieder Zeit haben. Momentan saugen sich diverse Games im LAN rüber. Ich gehe dann heute am späten Abend gerne genauer auf Lüfter, Display und Sound ein. edit: ich kann schon mal sagen, dass die Lüfter überwiegend rauschig sind. Sie sind also kein Ausschlusskriterium für dieses Modell. Ich editiere heute Abend den Post.
  10. Viel Spaß damit. Bei mir ist gerade eben ein Asus ROG Strix Scar 18 mit 275HX und 5080 (5090 noch nicht lieferbar) eingetroffen. Packe es gleich aus. Das Razer Blade 18 (wird ab Ende des Monats ausgeliefert) schaue ich mir evtl. auch noch an. Edit: Ausgepackt: Schneller Ersteindruck: tolles schlichtes Design (noch besser als es auf den Fotos aussieht) gut verarbeitet, Metalldeckel und steife Scharniere (besser als ich es erwartet habe) gute Tastatur, viel Hub das miniLED hat 2.000 Zonen, was MacBook Pro Niveau ist Nachfolgender Screenshot von der offiziellen Webseite. Mit dem Tool "G-Helper" (https://github.com/seerge/g-helper) müsste man alle Lüfter inkl. Lüfter-Kurven des Scar 18 (ohne Eingreifen der Firmware!) komplett steuern können (mit dem Zephyrus G16 geht es jedenfalls - selbst getestet). Ansonsten ist natürlich nice, dass nun auch die Intel-CPUs viel Leistung bei 70-80 W abliefern (mehr als ein 14900HX bei 150 W) und es somit kein geringes CPU-Limit mehr bei Crossload wie die Jahre zuvor bei Laptops gibt. Zumindest bei den CPUs gibt es nicht viel Unterscheid zu den Desktop-PCs. Ein GPU-Limit kann man mit Ingame-Settings ja gut beeinflussen, ein CPU-Limit aber nicht wirklich.
  11. Hat eine maximale TGP von 120 Watt inkl. Dynamic Boost, das ist wirklich bisschen schwach für die "5090".
  12. Kann ich mir gut vorstellen. Geht gar nicht. Problem ist, wenn manche anfangen, dann machen es auf kurz oder lang andere wegen sonstigem Wettbewerbsnachteil auch. Normal müsste dem Treiben gleich zu Beginn an ein Ende gesetzt werden.
  13. Gestern war auch schon eins lieferbar, mit 96 GB Ram und 6 TB SSD. Die CPU ist halt bei den Teilen für Gaming weniger interessant als der mobile X3D.
  14. Das Blade 16 will durch sein neues dünnes Gehäuse einfach was von der Zielgruppe des (wohl recht erfolgreichen) ASUS ROG Zephyrus G16 abhaben, denke ich. Der 9955HX3D passt natürlich viel besser zur 5090, was man auch an den Benchmarks sieht. Danke für den Link @EyeOfTheBeholder. Die neue 5090 ist isoliert betrachtet natürlich nicht so toll, aber das diesjährige Gesamtpaket finde ich dann nicht ganz so schlecht: mehrere Modelle von mehreren Herstellern haben deutlich bessere Displays erhalten (und/oder Tastaturen, Lautsprecher usw. usf.) der 9955HX3D ist in mehr Modellen in DE (voraussichtlich bald) lieferbar, als der 7945HX3D wenn man genügend fps schafft (ich sag mal so ab 70 oder 80), kann MFG 3x o. 4x Spaß machen und für sehr wenig zusätzlichen Inputlag sorgen (also selbst mit Maus spielbar). Man hat effektiv also ein deutlich flüssigeres Erlebnis also noch mit der vorherigen Generation bzw. vorallem mit der Vor-Vor-Gen
  15. Da mich jedoch das leicht "ruckelige" Verhalten der ~100 fps (schwankt natürlich stark, wie in jedem Spiel) auch etwas gestört haben, habe ich nochmal etwas Zeit in die einzelnen Grafiksettings investiert und das hat sich mal wieder (wie so oft) gelohnt. Ich konnte ohne merkbare oder nennenswerte Grafik-Verluste 14% an fps freigeben, so dass ich jetzt öfters auch mal um die 120 fps habe. Das macht sich bei Kameraschwenks bzw. allen allgemeinen Bewegungen schon gut bemerkbar (untenrum eben mehr als z.B. von 120 auf 150 fps). Gestern kam ein Patch, wo jetzt jedoch viele Probleme mit Nachladerucklern haben. Überhaupt muss man das Spiel noch nicht sofort spielen, das wird in ein paar Wochen oder Monaten mit entsprechenden Patches sicher noch besser laufen als aktuell (gut spielbar ist es aber schon). Ich werde zuvor noch ein anderes Spiel beenden. edit: ~800 MHz @~110 W @5090 @MFG 4x (über App aufgezwungen) @120 fps-cap @ AC Shadows 🤪 Funktioniert aber schlecht: Deutlich erhöhter Inputlag (auch im Vergleich zum normalen FG, was ingame angeboten wird). Das Runtertakten der GPU zu verbieten (dann 2,7 GHz @190 W) ändert brigens nichts an den 1% percentil-min-fps, hab ich getestet. Wäre auch mies gewesen. Was mir aber aufgefallen bzw. interessant ist: An der Stelle im Savegame habe ich mit dem 120 fps-cap ohne FG auch bereits stabile dreistellige 1% percentil-min-fps. Mit (M)FG sind es aber nur 70-80. Das Entfernen des 120 fps-caps bei MFG 4x (~230 fps) ist dann total komisch, die 1% percentil-min-fps schwanken zwischen 30 und 200, total mieses Verhalten, unbrauchbar. Aber - krass (neues best-practise für AC Shadows gefunden). Normales ingame-FG, aber ohne fps-limiter. Dann komme ich zwar auf schwankende 180 fps, die 1% percentil-min-fps sind aber meistens bei 110-150 fps. Inputlag fühle ich selbst mit Maus nicht. Heftig. 👍 edit 2: Bei CP2077 übrigens das Gleiche: Super spielbar mit FG (dort sogar mit MFG) ohne fps-limiter. Rund 200 fps bei 130-180 1% percentil-min-fps. Bei dem Spiel schaffe ich das aber auch nativ. Aber (M)FG ermöglicht hier aber natürlich Full-Ray-Tracing (Path-Tracing) mit noch um die 150 fps... Für mich bedeutet das zukünftig wohl, dass ich (mindestens) Singleplayer-Games zukünftig mit (M)FG ohne fps-limiter (bzw. mit nem 237er cap beim 240 Hz Monitor wegen G-Sync) spiele. 5090 Desktop. 5090-Laptops schaffen dann wohl immerhin noch 60-80 fps (was für die allermeisten reicht) bei solchen Titeln. Es gilt aber zu bedenken, dass sich (M)FG in diesen Regionen nicht mehr so gut anfühlt... Ein Learning ist auch: Das Überschreiben in der Nvidia-App auf das neue Transformer-Modell, und/oder auf (M)FG 2x, 3x, 4x, sofern es das Spiel ingame nicht anbietet (CP2077 schon), ist wahrscheinlich meistens keine gute Idee, weil das Spiel nicht unbedingt darauf hin entwickelt bzw. optimiert wurde. AC-Shadows läuft ausschließlich mit dem originalen ingame-FG gut. edit 3: Im Nachhinein logisch: FG sollte man sowieso ohne fps-cap spielen, da FG ja nicht die Frames bis zum cap auffüllt, sondern immer ein neues Bild zwischen jedem "echten" Frame berechnet. Wenn man also auf 120 fps limitiert, hat man intern ja nur 60 fps. Dass das schlechter läuft, ist logisch.
  16. Früher über RTSS, seit geraumer Zeit nutze ich nur noch den Treiber / die Nvidia App. Der limiter dort in aktueller Version (glaube V3) steht mittlerweile RTSS in nichts mehr nach bzw. hat sogar noch Vorteile. Nicht zuletzt hat das auch den Vorteil, dass ich RTSS nicht zusätzlich benötige (und Afterburner eh nicht). Als Tool läuft bei mir nur noch FanControl zum Steuern aller Lüfter im System und HWiNFO (letzteres aus Neugierde / zum Anschauen diverser Werte wie Temperaturen).
  17. Hab das Video zwar nur überflogen, finde es aber schwierig: keine Zahlen / fps wie soll ohne FG ein Plus von 65% zu Stande kommen? Das schreit nach unfairem Vergleich (Settings) und/oder auch nach anderem CPU-/Ram-Limit für mich geht es zu viel um FG (auch wenn logisch ist, dass Nvidia das massiv bewirbt und somit auch so einige YouTuber...). In AC Shadows ist FG wirklich annehmbar, für mich aber auch das erste Spiel, wo man es gebrauchen kann (bin aber zugegebenermaßen empfindlich und spiele AC Shadows lieber mit 100 fps cap ohne FG als mit mehr fps und mit FG. Das hat zwei Gründe: Erstens ist der Inputlag ohne FG natürlich immer besser und zweitens sind die 1% percentil min-fps bei so Spielen eh stets unter 100 fps, somit gibt es keine so hohe Diskrepanz zwischen average- und min-fps, woran FG nämlich nichts ändert)
  18. Das stimmt natürlich, ich denke aber mal, dass das den meisten hier bekannt ist. Mir ging es auch primär darum, das maximal Mögliche beim Desktop-PC gegen das maximal mögliche beim Laptop gegenüberzustellen, unabhängig der Namensgebung. Was mich am meisten stört, ist die Tatsache, dass heutige Games teilweise gar nicht großartig besser aussehen und enormen Leistungshunger haben. Wenn man sich heute mal z.B. Division 2 anschaut, wie gut das aussieht und auch wie gut es selbst ohne Upscaling läuft... Monster Hunter Wilds ist ein aktuelles negatives Beispiel: Es sieht gut aus, aber bei weitem nicht so gut, wie es läuft.
  19. Das ungute Gefühl wird sich bestätigen, denke ich. Die Sprünge werden nicht so groß sein (können). Weiterhin alle nur bis 175 W und allgemein ja keine großartige/neuartige Architektur. Cyberpunk 2077: Desktop-5090 vs mobile 4090: + 176% (von notebookcheck.com) Desktop-5090 vs mobile 5090: + ~163% (geschätzt) Aufgrund der Tatsache, dass Desktop-GPUs heute 575 W verbrauchen dürfen (oder noch mehr), ist der Unterschied zu den Laptop-GPUs mittlerweile einfach riesig, auch bei z.B. 75% PL mit ~430 Watt unter Volllast. 400, 500 Watt hören sich ja recht viel (bzw. vorallem ungewohnt) an, aber letztendlich ist das selbst in einem ITX-Gehäuse leise kühlbar (die Kühlkörper sind ja entsprechend ausgelegt), ohne das gethrottelt wird. Und im Vergleich zu so einigen anderen Dingen im Haus (je nach Lebensstandard) ist das eigentlich nicht so viel.
  20. Sagen wir wie es ist: Interessant, aber hässlich.
  21. https://www.kickstarter.com/projects/uhpilcl/worlds-first-built-in-split-type-water-cooled-gaming-laptop?lang=de
  22. Dann lassen wir von mir aus jetzt mal OLED außen vor (auch wenn ich das persönlich favorisiere) - Alienware hätte dann aber wenigstens wie z.B. MSI oder Asus miniLED anbieten können. Sehr löblich geht hier nun Asus vor mit 2.000 Dimming-Zonen (das ist MacBook Pro Niveau). Ich finde das neu designte Scar 18 (https://rog.asus.com/de/laptops/rog-strix/rog-strix-scar-18-2025/) ohnehin recht interessant, mal von der Intel-CPU abgesehen. Ob hier auch noch ein AMD X3D Chip kommt, weiß ich nicht.
  23. Wie ich gelesen habe, verschieben sich die Laptops, weil die GPUs dort ja auch das Problem der fehlenden ROPs haben/hatten und Nvidia alle dazu angehalten hat, nochmal in die Qualitsätskontrolle zu gehen, damit solche Laptops erst gar nicht zum Endkunden kommen. Macht natürlich Sinn. Ärgerlich für alle. Mitleid mit Nvidia hab ich aber natürlich nicht. Die haben sich dieses Jahr einiges geleistet... hängt wohl an den 7% oder so (ich meine das gelesen zu haben) Umsatzanteil von Gaming-GPUs am Gesamtumsatz... edit: pitha1337 hat es ja auch gepostet
  24. Meiner kommt auch nur mit -10 klar bzw. wahrscheinlich auch mit irgendwas zwischen -10 und -15. -20 ist schnell abgeschmiert und -15 erst nach längerer Zeit mit verschiedenen Last-Zuständen. -10 läuft nun seit geraumer Zeit ohne Komplikationen. -10 bedeutet ja immerhin -30 bis -50 mV und führt schon zu einer entsprechenden Einsparung. Man muss auch bedenken, welche Spannung welches Board anlegt. Wenn -10 nicht stabil laufen würde ich an deiner Stelle wohl mal -7 oder -5 testen oder es einfach lassen.
  25. Area 51 kommt auch wieder als Laptop: https://www.computerbase.de/news/notebooks/alienware-area-51-high-end-gaming-notebook-und-desktop-pc-kehren-zurueck.90609/
×
×
  • Neu erstellen...

Wichtige Information

Bitte beachten Sie folgende Informationen: Nutzungsbedingungen, Datenschutzerklärung und Community-Regeln. Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.