Zum Inhalt springen

Rangliste

  1. pitha1337

    pitha1337

    Mitglied


    • Punkte

      321

    • Gesamte Inhalte

      1.830


  2. Sk0b0ld

    Sk0b0ld

    Moderator


    • Punkte

      285

    • Gesamte Inhalte

      1.667


  3. captn.ko

    captn.ko

    Mitglied


    • Punkte

      140

    • Gesamte Inhalte

      3.914


  4. hysterix

    hysterix

    Mitglied


    • Punkte

      124

    • Gesamte Inhalte

      1.058


Beliebte Inhalte

Anzeigen von Inhalten mit der höchsten Reputation auf 24.09.2020 in allen Bereichen

  1. *keine Spoiler* Ich habe Cyberpunk 2077 seit über einer Woche durch, wollte die Eindrücke aber etwas sacken lassen, bevor ich etwas dazu hier schreibe. Ich hab das Spiel als männlicher V mit einem Fokus auf Itelligenz gespielt, also als Netrunner/Hacker. Mit meiner GTX 1080 musste ich die Grafik runter drehen, 2560x1080 bei hohen Details mit 30 bis 40 FPS. Während dem Spiel gab es viele Stellen die mich beeindruckt habe und direkt nach dem Ende war ich richtig geflascht. Was für ein Ritt . Egal ob es die Grafik war, die Gestaltung der Stadt, die Musik oder die erzählte Geschichte des Hautstrangs und auch einiger Nebenmissionen. Die Hauptgeschichte hat mir durchgehen sehr gut gefallen. Dabei lernt man zwei Charaktäre kennen, mit denen man jeweils eine Nebengeschichte erleben kann. Beide haben mir gut gefallen. Dazu gibt es noch vier größere Questreihen, die ich erlebt habe und eine eigene, kleine Geschichte erzählen, wovon eine ein sehr verstörendes Ende nehmen kann (war ein sehr goßer WTF Moment bei mir). Ein paar weitere Auftraggeber erscheinen immer mal wieder, vergeben aber eher wiederkehrende Aufträge mit ein paar Highlights, mit denen man die Stadt aber gut kennen lernt. Eine kleine Quest muss ich hier empfehlen: Taxiservice Delamain. Machen! Alles habe ich in Night City nicht gesehen, nach 55 Stunden lief bei mir der Abspann. Neben der Hautgeschichte habe ich alle größeren Nebengeschichten und ein paar andere Quests erledig. Das waren die intensivsten 55 Studen, die ich in den letzten Jahren gespielt habe! Es war auch das erste umfangreiche Spiel, das ich innerhlab knapp 3 Wochen durch hatte. Auch wenn der Start für mich durch die Berichterstattung der vielen Fehler im Spiel etwas getrübt war, habe ich es definitiv nicht bereut direkt bei Release zu spielen. Einen Plotstopper hatte ich nicht. Ein Mal konnte ich optionale Charaktäre nicht ansprechen. Ansonsten nur kleinere Glitshes. Im nachhinein fällt mir schon auf, dass die offene Welt und Stadt nicht and GTA V herankommt. The Witcher 3 hat ein rundere aund ausgereiftere Geschichte erzählt. Auch waren die Nebenquest bei der The Witcher 3 abwechslungsreicher als in Cyberpunk. Das ist aber Kritik auch höchstem Niveau, denn die beiden Spiele sind das Beste, was in den letzten Jahren auf dem Markt gekommen ist. Wenn es einen DLC gibt oder "New Game Plus" kehre ich auf jeden Fall zurück nach Night City. Bis dahin hat Nvidia und AMD es auf jeden Fall verpasst mir eine neue Grafikkarte zu verkaufen, denn die brauche ich jetzt erstmal nicht mehr
    8 Punkte
  2. Das Thema DSR wird immer mal - unter anderem von mir - in einigen Posts erwähnt. Es gibt hierzu im Forum aber noch keine Anleitung und ich finde, dass das Thema hier zu kurz kommt, gerade da viele eine 2080 oder stärker haben, jedoch nur ein 1920x1080px-Display. Deswegen diese Anleitung, auf die ich dann zukünftig bei Bedarf verlinken kann. Mittels DSR von Nvidia ist es möglich, Spiele in 2560x1440px oder 3840x2160px (oder auch anderen Auflösungen) zu spielen, obwohl das interne Display z.B. nur 1920x1080px unterstützt. Sobald ihr DSR aktiviert habt, könnt ihr diese Auflösungen in Spielen auswählen, so als hättet ihr ein Display, welches höhere Auflösungen unterstützt. Wie geht das? Nvidia Systemsteuerung öffnen „3D-Einstellungen verwalten“ ihr seid nun im Reiter "Globale Einstellungen". Dort wählt ihr bei „DSR-Faktoren“ 1,78x (2560x1440px), 2,25x (2880x1620px) sowie 4,00x (3840x2160px). Die anderen sind eigentlich uninteressant Darunter erscheint nun „DSR-Glättung“ welches auf 33% steht. Das sieht aber zu verwaschen aus. Wählt 20% aus. Dies ist vorallem für 2560x1440px wichtig, da es sonst zu grieselig ist. Bei 3840x2160px könntet ihr sogar 0% Smoothness nutzen, was dann am besten aussähe. Ihr könnt diesen Wert aber nicht für jeden Faktor konfigurieren, sondern nur global. Insofern sind 20% wegen 2560x1440px und auch 2880x1620px die beste Wahl Das wars. Jetzt könnt ihr euer Spiel starten und in den Spiel-Einstellungen taucht nun auch 2560x1440px, 2880x1620px und 3840x2160px auf. Einfach auswählen und das höhere Rendering genießen. Euer 1920x1080px Display bleibt natürlich technisch stets ein solches Display, die gerenderte Auflösung steigt jedoch, dies beschert euch einen Optik-Vorteil. Noch besser wäre es natürlich, wenn euer Display auch nativ die höhere Auflösung beherrschen würde (dann wäre es noch schärfer). Aber es lohnt sich trotzdem. Allgemeine Empfehlung: Wenn ihr grundsätzlich über genügend Leistung verfügt, und ihr nicht so viele fps braucht, wählt im Spiel 3840x2160px. Sofern ihr (neben 1920x1080px) nur diese Auflösung nutzt, könnt ihr wie oben schon angedeutet den Smoothness-Wert auf 0% stellen. Solltet ihr auch andere (Zwischen-)Auflösungen nutzen wollen, was sehr wahrscheinlich ist, so wählt wie gesagt 20% aus. Sofern ihr ein Laptop mit HDMI 2.0 (also keine Nvidia 30XX) habt und einen 120Hz-TV benutzt: Dadurch dass der TV kein DisplayPort 1.4 hat und euer HDMI Ausgang am Laptop nur HDMI 2.0 hat, könnt ihr 120 Hz nur bis 2560x1440px haben. Bei höheren Auflösungen seid ihr auf 60 Hz beschränkt. In diesem Fall empfehle ich keine höhere Auflösung als 2560x1440px zu nutzen, es sei denn euch macht 60 Hz und V-Sync nichts aus. Denn sonst kommt keine richtige Freude auf (meiner Ansicht nach), auch mit G-Sync nicht. In dem Fall aktiviert nur den Faktor 1,78x. 2560x1440px sind aber immerhin auch schon die 1,78 Fache Auflösung gegenüber 1920x1080... Sofern ihr ein Laptop mit HDM 2.1 habt und einen 120Hz-TV benutzt: Statt Faktor 1,78x (2560x1440px) könnt ihr nun auch 2880x1620px (Faktor 2,25x) benutzen und ihr habt trotzdem noch 120 Hz. Die Auflösung ist etwas höher und somit noch schärfer. Zudem lässt sie sich für das Display mathematisch gesehen besser umrechnen, was zu einer noch besseren Schärfe führt. Grundsätzlich sind die Faktoren 2,25x und 4,00x am besten, sie benötigen die wenigsten Filter. Gerade aber TVs beherrschen Upscaling sehr gut, hier werdet ihr zwischen 2560x1440px und 2880x1620px nur sehr wenige Unterschiede sehen. Bedenkt jedoch, dass die höhere Auflösung mehr Leistung benötigt. Sofern ihr ein Laptop (egal ob HDMI 2.0 oder HDMI 2.1) habt und einen 120 Hz oder höher Monitor benutzt: Hier gilt das Gleiche. Neben 2560x1440px könnt ihr dank DisplayPort 1.4 (schließt den Monitor also per Display Port an) auch 2880x1620px oder höher nutzen, ohne auf 60 Hz beschränkt zu sein. Sobald ihr eben einen 120Hz-TV benutzt, egal ob ihr auch schon einen externen Monitor nutzt oder nicht, muss klar sein, dass der TV kein Display-Port hat. Ein Laptop mit HDMI 2.0 (alle bis RTX 2080) macht dann nur Spaß (120 Hz!) am TV mit maximal 2560x1440px. (Beim 120 Hz-TV setze ich natürlich jetzt mal voraus, dass dieser bereits einen HDMI 2.1 Eingang hat, z.B. LG C9). Dann noch ein Hinweis: Egal ob ihr mit eurem internen Display spielt, oder mit dem Monitor (oder mit dem TV), nutzt immer die gleiche Auflösung. Sofern jedes Display die genutzte Einstellung/Auflösung unterstützt, bleibt diese erhalten. Sprich ihr müsst nur einmal die richtige Auflösung im Spiel auswählen, und schon bleibt sie für immer eingespeichert, egal mit welchem Display ihr spielt. -> das ist normalerweise nicht der Fall! Oder zumindest nicht bei jedem Spiel. Beispiel: Ihr zockt ein Spiel mit 1920x1080px an eurem Alienware-Display, also das vom Laptop. Dann schließt ihr ein Monitor oder TV an. Dort ist dann natürlich 1920x1080px auch ausgewählt. So wollt ihr wahrscheinlich an eurem 2560x1440px- oder 3840x2160px-Monitor (oder TV) aber nicht spielen, also erhöht ihr manuell in den Spiel-Einstellungen die Auflösung. Was passiert beim nächsten mal wenn ihr wieder am Alienware spielt? Richtig, dort wird dann wieder 1920x1080 gesetzt (weil eine höhere Auflösung vom internen Display ja nicht unterstützt wird) und beim nächsten mal Spielen am Monitor/TV müsst ihr die höhere Auflösung wieder manuell auswählen… nervig ohne Ende. Hier hilft euch DSR nun ungemein. Ihr spielt nun auch einfach am Alienware-Display bzw. eben überall mit 2560x1440px, 2880x1620px oder 3840x2160px, fertig. Welche Vorteile hat das Ganze also zusammengefasst? Optik: die Spiele sehen besser aus, für eine 2080 bietet sich in vielen Spielen 2560x1440px oder 2880x1620px an, damit hat man dann noch oft mindestens 60 fps. 3840x2160px solltet ihr nur in älteren oder nicht anfordernden Titeln auswählen, es sei denn ihr habt eine 3080 mit 150+ Watt oder unter 60 fps macht euch nichts aus (mir schon) Komfort: das Spiel merkt sich dauerhaft diese Auflösung. Wenn ihr wie schon gesagt ab und zu am internen Display spielt, und dann wieder am Monitor oder TV, müsst ihr bei vielen Spielen ständig wieder zwischen den verschiedenen Auflösungen wechseln (sofern ihr am Monitor oder TV eine höhere Auflösung verwenden wollt). Wenn ihr aber DSR aktiv habt, und bei allen Displays die gleiche Auflösung verwendet, bleibt diese dauerhaft eingespeichert und euch der ständige Wechsel der Auflösung in den Spiel-Settings erspart) Ihr könnt übrigens DSR aktiv haben, und wenn ihr den Monitor (oder TV) angeschlossen habt, nicht. Sprich die Nvidia Systemsteuerung unterscheidet hier je nach Display. Ihr könnt DSR natürlich auch dafür benutzen, um eurem schon höher aufgelösten 2560x1440px-Monitor 5120x2880px oder eurem 3840x2160px-Monitor 7680x4320px beizubringen… das kostet dann aber richtig Leistung... Welche Nachteile hat das Ganze? Ihr braucht natürlich mehr Leistung, habt also weniger fps. DSR verhält sich leistungstechnisch fast exakt genau so, wie als wenn ihr nativ eine höhere Auflösung hättet. Bei Spielen, die ihr konstant mit über 100 (oder 200) fps spielen wollt, z.B. Shooter wie CoD Modern Warfare oder Coldwar, empfiehlt es sich weiterhin die 1920x1080px-Auflösung zu nutzen (es sei denn ihr habt eine 3080 mit 150+ Watt, dann geht dort evtl. auch 2560x1440px). Aber für viele Spiele, die ihr z.B. in Third-Person mit Controller spielt, sind - zumindest nach meinem Geschmack - ca. 60-90 fps und 2560x1440px, 2880x1620px oder 3840x2160px die deutlich bessere Wahl als ca. 120 fps bei 1920x1080px. PS: Ich habe in dieser Anleitung bewusst keine Wörter wie QHD, 1440p, UHD, 4k usw. benutzt, weil manchen nicht jedes bekannt sein dürfte. Mit der stets ausgeschriebenen Auflösung, z.B. 2560x1440px, kann aber jeder was anfangen.
    7 Punkte
  3. Getreu dem Motto habe ich mir dieses Jahr im März einen neuen Gaming PC gebaut und meinen aufgerüsteten Aurora R4 in Rente geschickt Hier mal die Komponenten: CPU: AMD Ryzen 7 3700X (291 €) Arbeitsspeicher: 32 GB DDR2-3200 CL16 (152 €) SSD: Samsung 970 Evo 1 TB (168 €) Mainboard: Asus PRIME X570-PRO (239 €) Gehäuse: NZXT H510 Elite Window Schwarz (154 €) CPU Kühler: Scythe Fuma 2 (49 €) 2 Noctua Chroma black Lüfter (50€) Gesamt: 1103 € Meine GTX 1080, ein Corsair RM750x Netzteil und eine 740 GB SATA SSD habe ich aus dem Aurora in meinen neuen PC mitgenommnen. Als Monitor habe ich den Samsung CF791 (34 Zoll Ultra Wide, Curved, VA Panel, 3440x1440, 100 HZ), als Maus die Racer Viper Ultimate und als Keyboard das CM Storm Rapid-I. Die genaue Liste der neuen Teile gibt es hier. Wahl der Komponenten: Am wichtigsten für mich war das Gehäuse. Es sollte kompakt sein, ein ATX Mainboard unterbringen, Glas Seitenteil + RGB und einen USB-C 3.2 Front Anschluss haben. Mit den Kriterien ist mir nicht viel mehr viel Auswahl geblieben . Das NZXT Gehäuse ist rechteckig und schlicht, hat vorne und an der linken Seite Glaswände und kommt mit 2 140 mm LED Lüfter vorne und einer LED Leiste innen am Gehäusedach. Zusätzlich ist ein LED und Lüfter Controller verbaut, der alles steuert. Letztendlich bin ich mit dem NZXT Gehäuse zufrieden, was mir nicht gefällt schreibe ich weiter unten. Bei der CPU habe ich mich bewusst für 8 Kerne und AMD Entschieden. AMD wegen P/L und 8 Kerne, da ich mit dem PC nur zocken will und 12 oder 16 Kerne nicht nutzen werde. Es hätten auch 6 Kerne gereicht, die hatte ich aber schon in meinem Aurora, das ging dann natürlich nicht . Das Mainboard war eine schwierige Wahl, letztendlich sollte es auch RGB haben und einen USB-C 3.2 Front Header. Die X570 Plattform wegen Zukunftssicherheit und PCIe 4.0. Das Asus Board ist super, aber die LEDs nutze ich wegen der Software nicht und mein Gehäuse leuchtet auch so bunt genug. Beim Arbeitsspeicher haben ich mit 3200 MHz ein Kompromiss zwischen Geschwindigkeit und Preis gefunden. Schnellerer RAM war deutlich teurer. Hier habe ich aber eins gelernt: immer die RAM-Kompatibilitätsliste des Mainbaords beachten! Das habe ich nicht gemacht und eines der wenigen RAM Kits erwischt, die nicht kompatibel sind... Nach ein paar Mainboard Updates bootet aber alles mit XMP Profil. Die SSD war recht simpel. Auch wenn ich die Geschwindigkeit nicht brauche ist Samsung doch für Qualität bekannt. Eine 750 GB SATA SSD habe ich aus meinem Aurora übernommen. Der CPU Lüfter war auch eine leichte Wahl. Ähnliche Leistung wie der 120m Noctua Kühler mit 2 Lüftern, aber nur der halbe Preis und ein (wie ich finde) schickeres Design. Die Montage war recht einfach und die CPU Temperaturen in meinem Gehäuse sind gut. Meine GTX 1080 ist immer noch flott und die RTX 2080 Super war einfach nicht super genug. Das hat sich mit der RTX 3080 geändert, es könnte sich also noch was tun . Was mir nicht gefällt: Zunächst zum Gehäuse. Dadurch, dass die Front aus Glas ist, kann Luft nur durch einen Spalt an der Seite und unten ins Gehäuse kommen. Die Lüftung war wohl so schlecht, dass NZXT neben den beiden 140 mm Frontlüftern noch einen 120 mm Lüfter hinten und einen 140 mm Lüfter oben verbaut hat. Die beiden Lüfter hinten und oben waren mir zu laut, deshalb habe ich sie gegen zwei Noctua Chroma Black getauscht. Mit der richtigen Lüfterkurve für die Lüfter vorne, hinten und oben funktioniert es aktuell aber gut. Wenn die Lüfter schnell drehen hört man ein pulsierendes Brummen. Es bildet sich ein Unterdruck im Gehäuse, da nicht genug Luft nach kommt. Hier kann ich mir gut vorstellen, dass ein gelochtes Blech mit Luftfilter anstatt dem Glas in der Front Abhilfe schaffen kann. Der zweite Kritikpunkt ist die Lüfter/LED Steuereinheit. Die Software dazu lässt sich gut bedienen, es kommen aber oft Updates und wenn ein Update installiert wird drehen die Lüfter immer auf max. Das nervt. Was aber noch mehr nervt: immer wenn ich den PC vom Netz nehme vergisst die Steuereinheit meine Lüfterkurve und LED Einstellung?! Man kann also die NZXT Software nicht aus dem Autostart nehmen wenn man regelmäßig den PC vom Strom trennt... Zum Mainboard: die Asus Software zum steuern der LEDs ist mies. Lahm, gamery Design und buggy. Das Mainboard an sich läuft stabil, aber wegen der LED Komponente braucht man Asus nicht zu kaufen (angekommen andere Asus Boards habe die selbe Software). Fazit: Nach einigen Problemen mit dem RAM und der Lüftersteuerung habe ich mir ein schicken und flotten PC zusammen gebaut. Klar, es ist nicht der schnellste PC, aber ich habe darauf geachtet qualitativ hochwertig Komponenten zu verbauen und für meine Anwendungen eine gute Leistung zu bekommen. Auch habe ich wieder viel gelernt was aktuelle Hardware angeht mein letzter Eigenbau ist doch schon ein paar Jahre her und es hat sich einiges getan. Ein Problem bleibt aber, das Kabelmanagement Was meint ihr zu meinem PC? Teilt auch gerne euren selbst gebauten PC
    6 Punkte
  4. So, habe mein m17 R4 ja bekommen und es die letzten wenigen Stunden getestet. Soviel vorab: ich hab keinerlei Motivation, das Ding nochmal anzuschalten. Leider muss ich es ja noch zurücksetzen, werde mich dann jedoch in einem anderen Raum aufhalten... Außerdem werde ich euch noch den Gefallen tun, und testen, was ein U3 Kühler (im stillen Lüfter-Profil) bringt. Hierfür werde ich wohl Cyberpunk 2077 testen (CPU- und GPU-anfordernd) und entsprechend vergleichen. Ich poste das Ergebnis dann im U3-Kühler-Thread. Lüfter: Grauenhaft. Wie erwartet viel zu hochfrequent. Ungefähr so wie beim Razer Blade 17. Aber selbst einige von euch finden das ja nicht in Ordnung, ich bin also - zumindest an der Stelle - nicht überempfindlich. Das ist auch kein Problem einzelner Geräte, die Lüfter hören sich halt so an. Für mich fast typisch für so flache Notebook. Beim Razer z.B. hab ich zwei oder drei Stück getestet, um ein Montagsmodell auszuschließen. Selbst mit eigener Lüfter-Steuerung bei z.B. maximalen 2.000 RPM wären die Lüfter immernoch viel zu schlecht. Man hört ja bereits so schon, dass das unangenehme Geräusch auch bei niedrigen Drehzahlen vorhanden ist. Und ganz hohe Drehzahlen kommen für mich grundsätzlich nicht infrage, auch wenn dort nur ein Rauschen vorhanden wäre (laut ist es dann trotzdem). Und die Temperaturen sind bereits schon zu hoch - für eine Reduktion der Lüfter-Drehzahl ist eh kein Spielraum vorhanden. Leistung & Temperatur Eigentlich wollte ich mehrere Spiele testen, aber ein fünfminütiger Lauf von Cyberpunk 2077 in 1920x1080px hat mir schon verraten, dass die CPU sehr heiß läuft und auch zum Throtteln beginnt (mit -100mv). Mal zum Vergleich: m17 R4: Die CPU throttelt bereits nach kurzem auf 2,9-3,0 GHz bei allen 8 Kernen, da nach kurzer Zeit eben 100 Grad erreicht werden. Die Lüfter laufen hierbei 2500/2300 RPM (Lüfter-Profil Still). Es liegen ca. 25W an. Im Lüfter-Profil "Ausglichen" (schon ordentlich laut) steigt der Verbrauch auf über 50W, dann liegen 3,8-3,9 GHz an. Wie also schon von mir vermutet, und auch beim R2 gewesen, wird die CPU im Lüfter-Profil Still ordentlich kastriert. Die GPU läuft aufgrund eines 79 Grad Temperatur-Limits ebenfalls mit 100-200 MHz weniger Takt (geht bis 1.515 MHz runter) als im Profil Ausgeglichen. Die CPU-Temperatur im Profil Ausgeglichen und 3,8-3,9 GHz liegt bei 90-95 Grad. Ich hatte ihn etwas hochgebockt. Im Lüfter-Profil Still ist die Temperatur nach eingesetztem Throttling auf nur 2,9-3,0 GHz / 25W etwas geringer. Area 51m R1: Die CPU läuft ohne Throttling auf 4,7 GHz (bis zu 62% mehr Takt) auf allen 8 Kernen, Temperatur pendelt sich hier auch bei 90-95 Grad ein, aber mit eigener Lüfter-Steuerung bzw. sehr leisen 2000/2000 RPM (!). Bei dem Standard-Lüfter-Profil Still, also ohne Mods, wäre die Temperatur natürlich geringer (8X Grad). Und wenn ich die CPU auf 8x4,2 GHz (analog zum m17 R4) runtertakten würde, würden wir wohl von 6X-7X Grad sprechen. Das sind dann 20-30 Grad Unterschied. Der Verbrauch bei 4,7 GHz liegt bei um die 100 Watt. Wie beim m17 R4 liegen auch beim Area 51m -100mv an (eigentlich sogar nur -75mv). Wichtig: die Tests liefen nur wenige Minuten. Bei stundenlangen Spielen wird das Throttling einsetzen bzw. sich verschärfen. Beim Area 51m hat man etwas Spielraum, beim m17 R4 eben nicht. Ja, Cyberpunk 2077 ist für die CPU wirklich ein Hardcore-Test, die meisten Spiele benötigen weniger CPU-Last/Verbrauch. Aber solche Spiele müssen ja auch sein. Ja, das Area 51m R1 ist dicker und schwerer bzw. ein Desktop-Replacement, der Unterschied ist aber dennoch größer als gedacht. Ja, in lauteren Lüfter-Profilen ist ja das Throttling beim m17 R4 weniger bis gar nicht mehr der Fall, aber selbst das stille Lüfter-Profil ist eben auch schon fürchterlich piepsig und laut. Und das die 3080 gut ist und entsprechend schneller als eine 2080 ist, braucht man denke ich nicht zu vertiefen. Wäre ja auch schlimm wenn nicht. Habe ich jetzt gar nicht erst getestet bzw. genauer miteinander verglichen. Entsprechende Benchmark-Tests haben ja schon andere gemacht. In einigen Spielen wird man mit dem m17 R4 durch die deutlich geringere CPU-Leistung dennoch mehr fps-drops und weniger min-fps als mit dem Area 51m R1 mit 2080 haben. Die GPU-Leistung alleine ist in vielen und immer mehr Spielen nicht entscheidend, das Zusammenspiel von CPU und GPU ist wichtig. Konkretes Beispiel: in Cyberpunk 2077 hab ich in der belebten Stadt mit dem Area 51m/2080 etwas mehr fps als mit dem m17 R4/3080. 😉 Ich wollte eigentlich aufwendigere Vergleichstests machen, aber bitte erwartet das nicht mehr von mir, ich halte es keine weiteren 5 Minuten mehr vor dem Teil aus, auch nicht im Profil Still oder im Idle, die Lüfter sind einfach auf jeder Stufe grauenhaft. Mein Fazit für das m17 R4: überraschend schwer (Gewicht), hatte ich nicht erwartet egal auf welcher Stufe die Lüfter laufen, sie sind immer viel zu hochfrequent selbst wenn die Charakteristik der Lüfter auf niedriger Drehzahl gut wäre: Lüfter leiser machen mit eigener Lüfter-Steuerung ist aufgrund der hohen Temperaturen nicht drinnen CPU-Leistung relativ schwach fürs Jahr 2021, und starkes Throttling ist im stillen Lüfter-Profil in vielen Situationen normal (2,9-3 GHz bei Cyberpunk 2077). wen ein dickeres/schwereres Area 51m (vielleicht bald R3 mit 3080) nicht stört, der kriegt hier was ganz anderes geboten. Das m17 R4 macht vieles deutlich schlechter, nur um ca. 34% dünner und ca. 36% leichter als ein Area 51m zu sein. Für mich persönlich einfach ein schlechter Tausch beziehungsweise ein schlechtes Verhältnis Dann noch meine Meinung zum Abkleben der Lüfter: Schön, wenn es was bringt. Dann auf jeden Fall machen. Ich glaube aber nicht, dass man damit den Großteil des hochfrequenten Geräusches wegbekommt. Etwas angenehmer glaube ich aber sofort. Außerdem braucht man für einigermaßen CPU-Leistung dann immernoch ein schnelleres Lüfter-Profil als Still. Es ist also für einige und vorallem für mich dann dennoch allgemein viel zu laut. Dann noch meine Meinung zur Aussage, dass das Area 51m zwei Netzteile braucht: Mit einem Mod braucht es nur noch ein Netzteil. Und für 30 Euro oder so kann man sich die beiden power jacks (dc in) als Ersatzteil hinlegen und wieder bei Verkauf zurückrüsten. Bei Reparatur / Techniker-Einsatz braucht man das gar nicht mal machen (ich spreche aus Erfahrung). Jetzt sagt ihr vielleicht, dass das ja ein Eingriff ist, den kaum jemand machen will: ja, aber ein LM-Repaste ist meiner Meinung nach ein vergleichbarer Eingriff. Dort könnte man sogar langfristig Spuren hinterlassen, bei dem Netzteil-Mod nicht.
    6 Punkte
  5. Servus aus dem Allgäu, da mir da Forum und ihr als Mitglieder bisher viel wichtige Infos geschenkt habt wollte ich jetzt meine Erfahrung und Werte ebenfalls mitteilen. Vieleicht hilft es jemandem bei der Entscheidung ob m17 oder nicht. Meine Werte als Bilder: mit der Konfig i9 und RTX 3070 bekommt man das 240 Watt Netzteil geliefert der i9, wie im geteilten Benchmark, lief mit UV und veränderten Turbo Ratio Limits in Throttlestop die GPU wurde mit +100 Core und +200 Memory im MSI Afterburner betrieben die Stabilität des Systems wurde mit AIDA64 Stresstest und 3dMark Dauertest gestern getestet und es lief ohne Probleme es wurden die Standardtreiber von Dell vom Auslieferungszustand verwendet Für die Lüfter nutze ich die "Glatte Linie" Funktion im ACC ab 70 bis 100 Grad Die GPU wird aber nur zum Spielen mit OC betrieben, im Alltag läuft sie mit den Standardwerten das Laptop steht auf einer IcyBox Halterung und hängt an einem VESA400 Arm in der Luft Meine Erfahrung: Ich hatte bisher ein Surface Book 2 15 und der Lüfter war fast genau so laut nach meinem Empfinden die pfeifenden, hundpfeife-ähnlichen, Lüftergeräusche gibt es bei mir definitiv nicht Die Tastatur ist super, ich mag sie. Sie ist weicher im Druck wie eine Logi MX Keys oder der MS Surface Tastatur die Verarbeitung ist einem Premiumprodukt angemessen im Idle ist der Lüfter kaum wahrzunehmen oder ganz aus das 4k Display ist super in der Bildqualität UV ist beim i9 nötig wenn man mehr Performance haben will Wieso i9 und 3070? Es wird, neben gelegentlichem Spielen, viel für Content Creation für Fotos und Texte genutzt sowie auch öfters bewegt. Daher sind kleineres Netzteil, 17 Zoll und weniger Grafikpower ein guter Mittelweg gewesen. Falls jemand noch mehr Werte braucht oder was wissen will einfach Fragen. Ich melde mich dann bei euch.
    6 Punkte
  6. Ich feiere gerade ein wenig Da gibt wieder Kunden, die nicht warten können und gerade zu betteln nVidia das Geld in den Halz zu stecken (Stundenlang im Webshop F5 drücken) und dann ist es wie es immer ist, die ersten Versionen eines Produktes haben eben noch Kinderkrankheiten oder sogar größere Probleme. Und dann wird geheult. Ich lebe immer sehr gut damit ein wenig zu warten und dann ein ausgereifteres Produkt für einen angemessenen Preis zu kaufen. Sorry wenn ich hier provoziere, aber es lohnt sich drüber nachzudenken. P.S.: Für diese tollen und kreativen Beitrag erwarte ich mindestens 6 Likes
    6 Punkte
  7. Hallo zusammen, nachdem die X17 Serie nun da ist wollte ich meine Erfahrungen und Updates geben wie es um den m17 R4 aktuell bei mir steht. Man landet ja bei der Suche nach 17 Zoll Gaming-Notebooks oft auch hier. Ich nutze den i9 und die RTX 3070 (beide Chips mit LM Repaste). Zusätzlich habe ich über den AGA Port eine 6900XT dran hängen seit ein paar Monaten und nutze ihn nahezu immer. Hier aktuelle Werte von Cinebench R23 und AWCC Fusion Custome Curve und Cinebench R23 mit Höchstleistung und TimeSpy mit AGA: Nachdem ich den AGA komplett auseinander genommen habe steckt der AGA aktuell in einem ITX Gehäuse inkl. einem PCIE16x Riserkabel ohne nennenswerten Performanceverlust. Da kommt bald ein kleines Projekt bei mir, in dem ich den AGA in einen Kasten stecken möchte um das Laptop oben drauf stellen zu können. Dann bin ich etwas mobiler. Das ITX Gehäuse ist viel zu dick für das, was SFX und Graka benötigen. Zusätzlich will ich 3 Noctua Lüfter verbauen damit ich einen AGA + Notebook-Kühler habe. Gerade wegen dem AGA ist der m17 mein Laptop geblieben. Ausreichend Power für unterwegs und eine geniale Option mit viel Power für zu Hause durch den AGA. AMD Radeon RX 6900 XT Grafikkarten Benchmark Resultat - Intel Core i9-10980HK Processor,Alienware Alienware m17 R4.pdf
    5 Punkte
  8. @hysterix und @Nuestra Ihr wurdet von mehreren Usern bereits mehrfach gebeten, eure persönlichen Differenzen außerhalb der öffentlich einsehbaren Themen auszutragen. Dies ist eine offizielle, noch freundliche, Verwarnung. Wenn ihr eure Off-Topic Streitigkeiten nicht augenblicklich beilegt, werdet ihr aus disziplinarischen Gründen mit einer zeitlichen Postingsperre belegt, die sich bei weiterer Missachtung potenzieren wird.
    5 Punkte
  9. Boah Leute hört mit dem rumzicken auf...
    5 Punkte
  10. Die Titan lebt wieder! Es war tatsächlich ein Kurzschluss im 8Pin Stecker. Ohne Hilfe konnte ich das nur bis zu den unteren vier Mosfets nachverfolgen und wusste dann nicht weiter. Mehr durch Zufall habe ich dann ein Video gefunden, in dem jemand einen Mosfet auf einer EVGA 980 TI tauscht. Die vom PCB ziemlich identisch ist mit meiner Titan X. Das Video war sehr hilfreich (wenn auch sehr verwackelt), da dort erklärt wird, wie man herausfinden kann, welcher Mosfet schuld ist. Nach dem ich den Mosfet ausgelötet hatte, war der Kurzschluss schonmal weg. Den neuen Mosfet habe ich bei Digikey bestellt und gestern eingelötet. Nachdem ich nochmal überprüft habe, dass ich keinen Kurzschluss verursacht habe konnte ich die Karte testen. Sofort kam ein Bild - jedoch ging der PC aus, sobald ich einen Benchmark gestartet habe. Die Phase an der ich gearbeitet hab startete nicht. Ein paar der winzigen Kontakte rings um den Mosfet hatten sich beim Löten nicht richtig verbunden. Ich habe den Lötprozess bestimmt 20 Mal wiederholt, bis heute endlich die Karte stabil durch den Benchmark lief. Eine längere Zeit im Benchmark und eine kleine Runde Red Dead Redemption 2 später läuft die Karte immer noch ohne Probleme. Hier kann man beim untersten Mosfet Lötzinn an der Seite sehen. Das ist ein Indiz dafür, dass das der defekte Baustein ist. Durch das erhitzen beim Kurzschluss ist das Lot flüssig geworden und an der Seite ausgetreten. (Erklärung aus dem Video) Hier habe ich den Bereich um den defekten Mosfet abgeklebt, um keine anderen Teile mit abzulöten. Bei meinem Mosfet konnte man auch wie im Video den Kurzschluss zwischen zwei der großen Pads auf der Unterseite messen. Und hier haben wir den neuen Mosfet.
    5 Punkte
  11. Servus Gemeinde, viele warten wahrscheinlich schon ungeduldig auf diese Zeilen. Es war mir jedoch wichtig, dass Gerät in aller Ruhe kennenzulernen und auf Herz und Nieren zu testen. Ich denke umso umfangreicher kann ich nun darüber berichten. Für den einen oder anderen wird es zu viel Text sein. Insbesondere der erste Teil ist für Alienware-unerfahrene, bzw. Neueinsteiger gedacht. Alte Hasen dagegen werden direkt zu den Graphen weiter unten springen Wie im Wartezimmer bereits kommuniziert, habe ich folgende Gerätekonfiguration vorliegen: Intel Core i7-10870H nVidia RTX 3070 mobile 32 GB DDR4 1TB NVMe (Dell verbaut eine Western Digital PC SN730) 4K OLED Display inkl. Tobii Unboxing Das Gerät kommt in einem recht schnörkellosen Karton daher und beinhaltet neben dem Gerät - welches bei mir kopfüber verstaut war - lediglich das Netzteil (inkl. Schuko Netzkabel) und ganz wenig Papierbeiwerk in Form eines schlecht zurecht geschnittenen Willkommensschreiben und den gesetzlich notwendigen Garantiebestimmungen. That's it! Besitzer älterer Geräte werden mir beipflichten, wie sehr man sich auch über die Beigaben á la Alienware Mousepad, Aufkleber, Tastaturschutzstoff !und vor allem die Stoffhülle gefreut hat, in der man den Alien vor einer Reise immer verstaut hat. Ich kann mich noch an Zeiten erinnern, da gab es ein reges Handelsgeschäft um diese Hüllen ... Ich denke zur Bauhöhe, respektive flachen Bauweise, brauche ich nicht viele Worte verlieren. Ich war seinerzeit schon begeistert als ich mit dem AW 15 R1 das All Powerful M17X R3 ersetzt habe. Aber die erneute Dickenabnahme ist schon äußerst bemerkenswert! Design und Verarbeitung Über die Jahre habe ich viele Aliens in der Hand gehabt und mit jeder Generation, die ich selbst besessen habe, wurde die Verarbeitungsqualität besser. Das m15 R4 macht dahingehend eine Ausnahme, da es mit diesem Trend bricht und das Niveau eher aufrechterhält. Im direkten Vergleich zu meinem zu ersetzenden Alienware 15 R1 muss man aber auch festhalten, dass das Gehäuse einen deutlich komplexeren Aufbau besitzt. Einerseits muss sich das Display mit seiner eingerückten Aufhängung bedeutend umständlicher in das Gesamtwerk fügen, andererseits konnte sich das 4K Display des R1 hinter der vorgesetzten Makrolonscheibe viel dezenter "verstecken". Im Großen und Ganzen bin ich aber mit der Verarbeitung zufrieden. Auch die weiße Gehäusevariante "Lunar White" wirkt in Natura besser als auf den zahlreichen Abbildungen im Netz. Ich hoffe jedoch, dass der explizit von Dell beworbene Klarlack tatsächlich so beständig ist. First Power On Die erste Schrecksekunde ereilte mich, als ich zum ersten Male vergeblich versuchte dem Alien Leben einzuhauchen. Das Werk hat das Gerät doch tatsächlich mit einem leeren Akku auf Reisen geschickt?! Ich war immer der Auffassung, dass Akkus auch bei Neugeräten zwischen 20% und 30% vorgeladen wären. Jedenfalls gelang mir der First Power On erst beim zweiten Anlauf und mit angeschlossenem Netzteil, welches btw. in vorliegender Konfiguration in der 240W Ausführung ausgeliefert wird. Ich konnte das Gerät das erste Mal in den Abendstunden booten und ich wurde regelrecht geblendet. Der blaue Hintergrund der Windows Ersteinrichtung in leuchtintensiven 400 cd/m² hat mich fast vom Sofa geworfen. Ich will mir gar nicht ausmalen wie krass dann erst die 500 cd/m² des UHD Displays des m17 R4 sein müssen. Braucht man hier dann schon eine Sonnenbrille? Die Farbdarstellung ist definitiv über alle Zweifel erhaben. Hier stellt sich sofort ein Aha-Effekt ein. Bereits der Alienware POST-Screen auf dem satt schwarzen Hintergrund. Boah, was ein Kontrast und wie die weißen Buchstaben messerscharf voneinander abgetrennt sind. Selbst das Windows 10, was man sich vermeintlich schon sattgesehen haben müsste, wirkt viel lebendiger. Das Oled Display wird automatisch mit Tobii Eye-Tracking ausgestattet. Über den Mehrwert lässt sich definitiv streiten beziehungsweise stellen sich eine ganze Reiche von Fragen. Warum gibt es das nur in dieser Konfig? Warum lässt sich das nicht abwählen? Letztendlich ist es wieder eine der Sachen, die dem Kunden aufgezwungen wird und die sich damit in die Liste fragwürdiger Gegebenheiten einreiht, wie z.B. Gehäusefarbe in Abhängigkeit von der Konfiguration, All-Key RGB Tastatur nur als QWERTY etc. p.p. An ein neckisches Feature habe ich mich dennoch schon gewöhnt. Nämlich die automatische Displayabdunklung, wenn man sich von dem Gerät entfernt (bzw. wenn Tobii die Augen aus dem Fokus verliert) und umgekehrt, wenn man wieder an den Platz zurück kommt. Das klappt erstaunlich gut und ich habe bisher noch kein Fehlverhalten registriert. Ich denke ich werde auch mal ein Game ausprobieren, welches mit Tobii Features wirbt. Bisher hatte ich aber noch Keines im Testparcours. Vorinstallierte Software und Alienware Command Center Glücklicherweise sind auch die heutigen Alienware Neuauslieferungen frei von Bloatware und die Betriebssysteminstallation recht sauber gehalten, weshalb man sich nicht zwingend verpflichtet fühlen muss, das OS direkt neu aufzusetzen. Dennoch muss man sagen, dass die Anzahl an Alienware gebrandeter Software - bzw. Apps - deutlich zugenommen hat, worunter auch sinnloser Murks á la "Alienware Customer Connect" zählen dürfte. Und ob "Alienware Mobile Connect" eine große Fangemeinde findet, wage ich auch zu bezweifeln. Das Hauptaugenmerk liegt denke ich zweifelsohne auf dem mittlerweile ziemlich wuchtig geratenen "Alienware Command Center". Spätestens seit Einführung der AlienFX Christbaumbeleuchtung, ist diese Software die Kommandozentrale eines jedes Aliens. Umso eher sollte man sich doch darauf stützen können, dass diese ordentlich funktioniert. Aber leider ist dem weit gefehlt! Wenn man mal den Umstand außer Acht lässt, dass man in der Vergangenheit bereits mehrfach die Chance verpasst hat eine einheitliche, konsistente Software über viele Gerätegenerationen hinweg aufzubauen, so ärgert es umso mehr, wenn augenscheinlich gut gedachte Funktionen nicht das tun, was sie sollen ... oder nur sehr widerwillig. Bspw. ist die Möglichkeit aus verschiedenen Lüfterprofilen zu wählen (und auch eigene zu definieren) erst seit wenigen Jahren Bestandteil des Command Centers. Ich besitze jetzt zum ersten Mal ein damit kompatibles Gerät und habe erst wenige eigene Erfahrungen sammeln können (fern der vielen Berichte hier im Forum). Aber unter diesen Wenigen sind bereits ziemlich schwerwiegende Missstände zu vermelden. Anfangs habe ich im Office Betrieb das Profil "Still" ausgewählt gehabt und war damit sehr zufrieden, da die Lüfter, wenn sie denn anliefen, nur bis 30% aufdrehten, was nur wahrnehmbar ist, wenn es keine weitere Geräuschquelle in unmittelbarer Nähe gibt. Plötzlich und ohne ersichtlichen Grund drehten sie jedoch auf, als würde im Hintergrund eine sehr leistungsbeanspruchende Anwendung ausgeführt werden, was aber nicht der Fall war (Beweis war im Taskmanager ersichtlich). Gegen kurzzeitig ansteigende Lüfter habe ich nichts. Aber wenn sie auf der hohen RPM-Stufe verharren, ist es nervtötend. Interessanterweise konnte man die Lüfter nur bändigen, wenn man auf ein anderes Lüfterprofil - z.B. "Ausgeglichen" - wechselte. Insgesamt ist mir das so 2 oder gar 3 mal untergekommen. Ebenfalls mehrfach aufgefallen ist mir, dass die automatische Profilauswahl nicht ordentlich arbeitet. Wenn im Command Center Spiele verknüpft sind und das Profil "Leistung" zugewiesen ist, dann wird nach Beendigung nicht wieder auf das zuvor eingestellte Lüfterprofil gewechselt und teilweise verbleiben die Lüfter in den hohen RPM Bereichen, wie unter 1. Dieser Punkt ärgert mich am meisten und wahrscheinlich werde ich dazu noch einen eigenen Thread (Hilfegesuch) starten. Mir ist jetzt schon 2x BF5 abgeschmiert ... ich vermute aufgrund eines noch instabilen Under Voltings (dazu später mehr). Beim ersten Mal habe ich noch keinen Zusammenhang gesehen, aber jetzt beim zweiten Mal ist ein Trend erkennbar. Nachdem das OS aus dem Crash neu gebootet hat, kann ich im Command Center die Module "Übertakten" und "Thermo" nicht mehr anwählen. Ich sehe lediglich die Ladekreise. Nach einer kurzen Weile meldet sich das CC und behauptet, dass für das OC-Modul noch Komponenten heruntergeladen werden müssen. Dass diese aber bereits installiert sind, zeigt sich, dass man diese nach dem Herunterladen nur "Deinstallieren" anstatt "Installieren" kann. Eine Neuinstallation des gesamten Command Centers inkl. penibler Säuberung sämtlicher Verzeichnisse ist nicht zielführend! Keine Ahnung ob es daran lag, aber nach der Reparatur der Microsoft C++ Redistributable, war das CC wieder funktionstüchtig ... bis zum 2. Crash. Alienware Graphics Amplifier Ein nicht unerheblicher Grund weshalb das m15 R4 den Weg überhaupt zu mir gefunden hat, ist der weiterhin verbaute AGA Port. Da ich den AGA und meine darin befindliche RTX 2070 weiter nutzen wollte, war das ein wichtiges Kriterium und vor dem Hintergrund, dass der AGA bereits EOL ist, gar nicht so gewiss. Ich gehe mal davon aus, dass er nur deshalb noch existiert, weil das R4 keine grundlegend neue Architektur besitzt und es noch viele AGAs da draußen gibt. Bei einem Generationenwechsel wird er aber wahrscheinlich wegrationalisiert werden. Die Inbetriebnahme gestaltet sich extrem unkompliziert. Anstecken, booten, fertig. Die notwendigen Treiber stecken bereits im Command Center und es wird keine weitere Softwarekomponente benötigt. Neben diesem Unterschied zu meinem vorherigen AW 15 R1 werden nun auch alle !3 GPUs betrieben. D.h. man kann, sofern es die Software ermöglicht, auswählen, welche GPU zur Ausführung kommen soll. In den Einstellungen von Red Dead Redemption 2 kann ich z.B. festlegen ob die Intel GPU, die mobile RTX 3070 oder die externe RTX 2070 zum Zuge kommen "darf". Wenn man keine Auswahl treffen kann, ist die externe GPU im AGA immer das winning System. Den End-of-Life Status des AGAs merkt man z.B. daran, dass man im AlienFX des CC diesen gar nicht mehr vorfindet und er leider keinen beleuchteten Alienhead mehr hat. Alles andere, wie die USB-Hub Funktion sind aber weiterhin funktionell. Performance Für die meisten von euch folgt nun höchstwahrscheinlich der spannendste Part des Berichts. Nämlich objektive Fakten zur Leistungsbewertung der Konfig. Ich werde mich in diesem Teil mit Worten zurückhalten und die Werte für sich sprechen lassen. Sicherlich werden wir im Nachgang darüber diskutieren und ich gehe davon aus, dass die gezeigten Benchmarks und Logs nicht die Letzten bleiben werden. Für maximale Transparenz befinden sich in der Anlage die originalen Logfiles mit allen getrackten Werten aus den BF5 Sessions. Der Laptop steht auf einem Notebookständer und wird von allen Seiten gut belüftet. WLP ist out of the box. TimeSpy - RTX 3070 mobile (Steam Demo Version) Out of the Box (Dell Treiber 27.21.14.5765, A00, kein UV) Link: https://www.3dmark.com/3dm/58775068? Dell GPU Treiber 27.21.14.5773, A01 CPU:-100mv UV Link: https://www.3dmark.com/3dm/58776170? TimeSpy - RTX 2070 AGA (Steam Demo Version) nVidia Treiber 461.72 CPU:-130mv UV Link: https://www.3dmark.com/3dm/58896678? Battlefield 5 Ich habe je eine große Runde (ca. 1h am Stück) "Operation Underground" auf einem vollen 64er Server gespielt. Einmal mit der mobilen RTX 3070 und einmal mit der RTX 2070 im AGA. Die Game-Settings sind so eingestellt, dass sie für beide GPUs 60 FPS (vsync on) erreicht werden. D.h. Auflösung 2048x1152, Preset Ultra und RTX on (Mittel), DLSS off (für die Auflösung nicht verfügbar). Ich Dussel habe leider vergessen die HWinfo Übersicht abzufotografieren. Deshalb folgen "erstmal nur" einige Diagramme ausgewählter Eigenschaften. Mit den Logs anbei kann man aber wie gesagt alles einsehen. RTX 3070 mobile, CPU -130mv Ab Minute ~33 ist eine deutliche Veränderung erkennbar. Ganz sicher bin ich mir nicht, wie das zu interpretieren ist, aber folgendes kann ich sagen. Mir ist aufgefallen, dass ab ca. Mitte der Runde der Alienhead (Powerbutton) angefangen hat zu pulsieren. Also der Indikator für den Ladevorgang des Akkus. Also hat sich der Alien auch am Akku bedient und nach Rundenende war der Akku nur noch zu 95% gefüllt. Weiterhin hat sich das Spielgeschehen verändert. Die erste Hälfte der Runde hat ausschließlich auf dem Bahnhofsvorplatz, also draußen, abgespielt und später hat es sich in die Tunnel verlagert. Zu keinem Zeitpunkt habe ich einen Leistungsabfall im Spiel registriert. RTX 2070 AGA, CPU -130mv Die Kurven des AGA Szenarios sind einfacher zu deuten. Der "Einbruch" bei Minute 7 ist nichts anderes als ein Rundenneubeginn. Zwischenfazit Das m15 R4 hat mich unterm Strich definitiv positiv überrascht. Man merkt die 6 Jahre zu meinem vorherigen AW 15 R1 besonders CPU-seitig. In Spielen wie BF5 konnte die RTX 2070 im AGA ihr Potential einfach nicht ausnutzen. Das wird ganz deutlich und allein vor diesem Hintergrund ist der m15 R4 für mich schon ein würdiger Nachfolger. In meinen vorangestellten Kapiteln habe ich mich gar nicht großartig über die Lüftercharakteristik ausgelassen (wenn wir von den Command Center Eigenarten mal absehen). Das liegt zum einen daran, dass mich das Thema nicht sonderlich triggert und zum anderen finde ich die erzeugten Geräusche nicht unangenehm. Keine Ahnung ob das m15 R4 von dem Pfeifen der m17 R4 nicht betroffen ist, oder ob ich einfach ein anderes Empfinden habe, aber für mich rauscht es einfach nur dahin ... ohne Pfeifen. Und weil ich weiß das hier viele darauf Wert legen, möchte ich noch bemerken, dass während ich diesen nicht enden wollenden Beitrag verfasse, die Lüfter nur sporadisch auf kleiner Stufe anliefen. Leider kann ich aber aufgrund des o.g. Sachverhalts gegenwärtig nicht sagen in welchem Lüfterprofil ich momentan unterwegs bin. Es ist schon bemerkenswert wieviel Leistung man heute aus einem so kleinen Gerät rauspressen kann. Genauso krass finde ich, wie besser die mobile RTX 3070 gegenüber der Desktop RTX 2070 im AGA performt - unabhängig davon, dass der AGA gewisse Leistungsverluste mit sich bringt. Nach aktuellem Stand wird das m15 R4 bei mir bleiben dürfen. Ich gehe davon aus, dass die Probleme mit dem Command Center noch näher eingegrenzt werden können und dann hoffentlich in einer Problembeseitigen münden. Letztendlich wäre es aber auch verdammt schwierig sich von dem geilen Display wieder verabschieden zu müssen! In diesem Sinne, danke fürs Durchlesen bf5_3070.CSV bf5_2070.CSV
    5 Punkte
  12. Wie ich es bereits an der ein oder andere Stelle angedeutet habe, habe ich mir ein neues System gebaut. Die Möglichkeit hat sich ergeben, da mein Arbeitskollege auf der Suche nach einem neuen PC war und mir entsprechend noch ein gutes Angebot für mein altes System gemacht hat. Eigentlich war geplant, dass ich mir alle Teile wieder direkt neu zusammenkaufe. Zufälligerweise entdeckte ich bei der GPU-Suche aber ein Komplettsystem, was zu 80% die Teile verbaut hatte, die ich neu kaufen wollte. Nach etlichen Telefonaten und Kalkulationen entschied ich mich dann für das Komplettsystem (nur 3 Wochen alt) und holte es ab. Anschließend verbrachte ich zwei Abende in meiner Werkstatt und machte das neue System nach meinen Vorstellungen fertig, zumindest so weit ich das konnte. Verbaut wurde Folgendes: Case: Phanteks Eclipse P500A D-RGB Board: Gigabyte X570 Aorus Master CPU: AMD Ryzen 7 5800X GPU: XFX RX 6900XT Mer 319 BLACK RAM: 4x 8GB G.Skill Neo (Sam B-Die) SSD: 2x Samsung 980 Pro (PCIe 4.0) Cooler: NZXT Kraken Z63 AIO PSU: Corsair AX850 (Titanium) Zubehör: schwarz gesleevte Kabel etc. Monitor: MSI Optix MAG27QRF-QD (165Hz IPS) (bestellt) Hier mal ein Vergleich der neuen GPU mit der alten: Die MSI war ja schon mit einer der größten damals, aber die XFX ist noch mal einen Tick länger und schwerer. Die Verarbeitung der Karte ist absolut Top. Rahmen, Frontcover, Backplate etc. ist alles aus Metall. Sieht und fühlt sich alles sehr hochwertig an. Hier mal einige Fotos vom Zusammenbau: Kabelmanagement darf natürlich auch nicht fehlen. So schaut das System am Tag aus: (wenn der PC aus ist) und so bei Nacht, wenn er an ist: Natürlich habe ich schon das ein oder andere umgebastelt, aber dazu äußere ich mich im Detail dann in einem anderen Beitrag. Ich bin aber noch lange nicht fertig. Einiges ist bereits bestellt und unterwegs. Dann zu den Benchmarks.... Ehrlich gesagt, habe ich noch nicht wirklich viel getestet und ausprobiert. Diese ganze AMD Sache ist für mich noch ein wenig neu und ich muss entsprechend viel Zeit investieren, um das optimale Setting zu finden. Zumindest habe ich jetzt mal einen Firestrike und Timespy Run gemacht. Anfangs natürlich Stock und jetzt mit bisschen UV und OC, wobei der Unterschied jetzt nicht so wirklich groß ausfällt. CPU läuft undervoltet mit dem Curve-Optimizier bei einem Offset von -19 und +50 MHz. GPU lief bisschen im OC. +100 Takt + 50 Mem. Gut möglich, dass mein Setting noch nicht wirklich gut ist. Daher nur vorläufige Ergebnisse: P.S.: GPU genehmigt sich maximal 330w mit PL +15%. Sonst sind's mein ich 280w. Takt läuft irgendwo bei 2.600 Mhz, hab die Karte aber noch nicht ausgefahren. Time Spy Link: http://www.3dmark.com/spy/19225522 Firestrike Link: http://www.3dmark.com/fs/25206276
    5 Punkte
  13. @pitha1337 mit diesen Worten kann ich mich zu 100% identifizieren. Eventuell ist es nicht ganz fair, weil ich mich auf das Spiel nur aus den technischen Gesichtspunkten RTX und DLSS heraus eingelassen habe und diese mich neugierig gemacht haben. Vor allem wollte ich einen Vergleich zu BF5, wo diese beiden Punkte überhaupt nicht überzeugen konnten. Leider muss ich gestehen, dass auch Cyberpunk dem Hype hier nicht gerecht wird. Unabhängig davon das mir das (futuristische) Setting nicht wirklich zusagt, bin ich von der Grafik nicht sonderlich begeistert. Mein Setup (RTX2070 im AGA) erlaubt mir nicht die höchsten Einstellungen, aber ich denke ich kann es dennoch ganz gut einschätzen. Insbesondere wenn man die vielen YouTube Videos dagegen hält, wo auf jedes noch so kleine Detail eingegangen wird. Teilweise fällt es mir echt schwer dort überhaupt qualitative Unterschiede auszumachen ... und das soll man dann auch noch im hektischen Spielbetrieb registrieren, bzw. von profitieren. Ich glaube die einzigen die hier profitieren sind nVidia und Co. die diese Technik gut zu vermarkten wissen. Aber zurück zum Spiel. Ich habe einen Charakter vom Typ "Konzerner" erstellt, weil es mir von den Beschreibungen her als geringstes Übel erschien. Keine Ahnung wie es bei einer anderen Wahl ausgesehen hätte, aber ich hatte große Mühen mich in die Story und alles herum einzufinden. Irgendwie war mir alles zu überladen und überfrachtet. Aber das Spiel muss seinem Namen ja irgendwo gerecht werden ^^. Jedenfalls habe ich die Flinte nicht gleich ins Korn geworfen und "tapfer" weitergespielt ... nicht zuletzt euren Ausführungen hier wegen . Mittlerweile komme ich ganz gut zurecht, auch wenn ich immer mehr davon überzeugt bin, dass man sich bei den vielen Waffen bei Borderlands die ein oder andere Inspiration geholt hat. Ich muss @einsteinchen dahingehend recht geben, dass es Wert ist auch auf die Nebenmissionen zu blicken. Die Delamain Taxi Quests sind echt toll und auch der Handlungsstrang mit Panam gefällt mir soweit ganz gut. Irgendwie geht es an vielen Stellen aber auch schon wieder ein Stückweit zu schnell. Man lernt Charaktere erst unmittelbar vor einer Quest kennen und ist im Anschluss der dickste Buddy. Oder "Wildfremde" rufen einen aus dem Nichts heraus an und gewähren einem direkten Zugang zu ihren privatesten Umfeld/Inneres. Andere Spiele machen das auch häufig so, aber hier fällt mir das besonders stark auf. Das angesprochene The Last of Us ist da eine ganz andere Hausnummer. Der Vergleich mag etwas hinken, da anderes Genre und Setting. Aber es zeigt wie ein Computerspiel fesseln kann. Ich habe beide Teile nicht spielen können, da ich keine Konsole besitze, aber selbst als Let's-Play-Zuschauer konnte es in den Bann ziehen. Ich hoffe die geplante Serie versaut es nicht, auch wenn das Potential dazu existiert ^^ Anyway, ich werde Cyberpunk auch zu Ende spielen und mal schauen ob mich das Ende motivieren kann noch alternative Wege auszuprobieren. Der große Fan werde ich aber nicht werden.
    5 Punkte
  14. Du hast ja einen echt guten Durchlauf an neuen Grafikkarten. Ich will dich von deinem Vorhaben nicht abbringen, aber käme eine 3080Ti für dich nicht in Frage? Auf welcher Auflösung spielst du eigentlich? @Silentfan, sehe ich genau so. Benchen am PC finde ich etwas langweilig, zumindest unter normalen (nicht-LN2) Bedinungen. Man schraubt ein paar Regler hoch, schmeißt die Kühlung an und guckt wie man durch den Benchmark kommt. Zumal die Benchmarkdaten der GPUs nahezu alle bekannt sind und mit OC, selbst unter Wasser, nicht all zu viel zu holen ist. Verstehe auch nicht wie man sich über 5% Mehrleistung bei 100w+ freuen kann... Für mich macht das Optimieren, Under-/Downvolten da deutlich mehr Spass und ist aus meiner Sicht auch viel interessanter. Aktuell finde ich RAM übertakten/ optimieren wohl noch ganz interessant, da man hier für ein gutes Setting teilweise sehr lange braucht. Hab mein 4x 8GB Kit auf 4.133 Mhz bei etwas strafferen Timings CL16-17-17-32 laufen. Hatte vorher auch 4.266 MHz bei CL17-17-17-34 laufen, hatte jedoch hin und wieder Fehler (wahrscheinlich VDDR zu niedrig). Die Samsung B-Die's machen wirklich Spaß und haben sehr viel Headroom. Falls da einer mitmachen möchte, meine OC-Werte sehen wie folgt aus: Ist an sich nichts besonderes, einfach ein leicht optimiertes Setting für daily usage. OC-technsich geht da noch deutlich mehr. Wie wir alle wissen, bringt mehr RGB auch mehr FPS. Also habe ich die Feiertage und das schlechte Wetter genutzt und analog zur Weihnachtsbaumbeleuchtung, die RGB-Belechtung im Gehäuse erweitert. So schaut das ganze aus:
    5 Punkte
  15. Puuh, weiß nicht. Vielleicht Skalierung oder so. Wie sieht's mit'm anderen Browser aus? Ich baue ja häufiger PCs zusammen und kenne daher das ganze Namens-Chaos von USB. Orientiere dich nicht so stark dran, was die Hersteller für Bezeichnungen ihrer I/O Panels geben, die sind nämlich auch nicht immer richtig. Ist aber eigentlich egal, weil sind eh alles die gleichen Kabel, die ins Mainboard münden. Wichtiger ist welche Anschlüsse dein Mainboard bietet. Ich vermute mal, dass du USB 3.1 Typ C Gen. 2 meinst. (...was für'n Name). Ist halt der schnellste Anschluss für USB am Front-Panel und bei heutigen Gehäuse Standard. Ja gut, zum einen kann der Fuma2 nicht wirklich laut^^ und zum anderen hast du ein relativ geschlossenes Case. Das fängt schon ein wenig Schall ab, wobei deine eingesetzten Lüfter und das alles bis zu einem gewissen Grad auch leise bleibt. Sind halt keine Blower-Fans oder so ein Blödsinn drin. Kleiner Tipp: Falls du mal ein Repaste machst, dreh den Fuma besser um. Er ist mit seinen gegenläufigen Lüftern und den Heatsink-Lamellen für die andere Strömungsrichtung konzipiert. Gut möglich, dass er dann effektiver kühlt. Das stimmt. Viel zu teuer von Corsair die Dinger. Wenn du Premium möchtest, bestellst du eh bei Cable-Mod passend in deinen Farben, Längen und für dein Netzteil oder du nimmst die Alternativen von Amazon und Co. (Alternative1, Alternative2). Hab ich auch schon öfter gemacht und sind von der Qualität voll in Ordnung. Musst halt gucken welches Sleeve-Material (PET oder Paracord) du möchtest. Da kann ich dir 4 Sachen hierfür wärmsten empfehlen. Hat sich bei mir bislang wunderbar bewährt. - Kabelschlauch groß - Kabelschlauch klein - Kabelbox - Klettbänder So sieht das ganze dann bei mir aus: Dann fang ich mal mit meiner Bude an, auch wenn die Fotos nicht mehr ganz so aktuell sind. Komponentenliste: Case: BeQuiet Dark Base Pro 900 Rev.2 Mainboard: Gigabyte Z390 Aorus Master CPU: Intel Core i9-9900KS CPU-Kühler: BeQuiet Dark Rock Pro 4 (inkl. 2 NF-A12)* GPU: MSI RTX 2080 Super Gaming X Trio GPU Mount: CableMod Vertical GPU Bracket RAM: 4x 8GB G.Skill Ripjaws V (Samsung B-Die) PCIe m.2 SSD: 3x Samsung 970 Evo+ 500GB SATA SSD: 2x Samsung 860 Evo 500GB PSU: Seasonic Focus Gold 80+ 750w Air-Intake: 3x BeQuiet Silent Wings3 140mm PWM* Air-Exhaust: 1x BeQuiet Silent Wings3 140mm Highspeed PWM Extra: Gesleevte Kabelverlängerungen* Extra: Cooler Master 24-Pin ATX 90° Grad Adapter Monitor1: Gigabyte Aorus AD27QD (2560 x 1440p) 144Hz Monitor2: Dell P2720D (2560 x 1440p) Monitorständer: Dell MDS19 Tastatur: Alienware AW768 + Palmrest AW168 Maus: Logitech M720 Sound: Bose Companion 50 Headset: Logitech G935 (Wireless) Stuhl: Noblechairs EPIC & ICON * Teile wurden mittlerweile geändert Wahl der Komponenten: Mit dem Setup bin ich vollstens zufrieden, auch wenn ich mittlerweile einiges geändert habe und auch noch einiges in Planung ist, dazu aber gleich mehr. Das Aorus Master bot zu dem damaligen Zeitpunkt in der Preisklasse (280 - 320€) die beste Option für mich. 3x m.2 PCIe SSD, stärkstes VRM-Layout, beste VRM Kühlung, Dual Bios, Cmos-Button, 8x Fan/ Pumpe Anschlüsse, verstärkte Stromschlüsse und und und. Da Z390 Chipsatz, kam dementsprechend nur Intel in Frage. Logischerweise konnte ich in ein High-End Board keine Mittelklasse-CPU reinstecken. Also kam vorerst ein 9900K rein. Da man mit so einem Mainboard gefühlt unendlich Möglichkeiten hat, die Spannung seiner CPU einzustellen, kam schnell der Wunsch auf, eine selektierte CPU haben zu möchten damit ich vom Strom her deutlich weiter runter gehen kann. Also kaufte ich mir den KS, der natürlich auch für OC besser eignet. Strom- und damit temperaturtechnisch ging hier dann noch mal deutlich was. Ich betreibe meine CPU mit dem Minimum an Strom, den ich zum Zocken brauche. Prime95 überlebt er mit der Einstellung nicht, aber bei Prime ist die Last ist so oder so unrealistisch hoch (Gaming). Ich weiß, viele testen mit Prime95 und wollen ein absolut stabiles System und betreiben ihr System dauerhaft mit der Spannung, die den Worst-Case überlegt. Ich habe hierfür einfach ein zweites Setting, was ich während des laufenden Betrieb einstellen kann. Wenn's mal ein Bluescreen gibt, drehe ich 0,05mV auf und spiel weiter. Bislang hält aber der Sweetspot noch ganz gut durch. Ich glaub, dieses Jahr noch kein Mal abgestürzt. Für's Video rendern reicht's jedoch nicht ganz. Hintergrund der Geschichte ist: weniger Strom --> weniger Abwärme --> leiseres System. So sehen die Temperaturen nach 2h Spielzeit (AC Odyssey) mit dem Setting und dem Dark Rock aus: Als GPU hatte ich zunächst die Gigabyte RTX 2080 Aorus, da ich bereits mit dem Mainboard und dem Monitor gute Erfahrungen mit Gigabyte gemacht hatte. Jedoch habe ich diese Karte relativ schnell zurückgeschickt. Aufgrund der, im Vergleich zu den anderen, kleinen Größe war die Passiv-Kühlleistung nicht so dolle und die Kühlleistung allgemein nicht so. Also gab ich sie zurück und bestellte mir im Austausch die MSI Gaming X Trio, die so ziemlich die größte 2080 ist. Mit der bin ich "super" zufrieden, weil sie auch im Gaming-Betrieb sehr leise ist. Außerdem gefällt sie mir optisch sehr gut. Einziger Nachteil, bei so einer großen Karte kann die vertikale Ausrichtung mit einem großen Luftkühler schnell kollidieren. Also mit'm Noctua NH-D15 passt es so nicht. Updates: Seit letzter Woche ist nach langem hin und her nun auch eine AIO in mein Case eingezogen. Zum Einsatz kommt die NZXT Kraken Z63. Ich betreibe den Radiator in einer Pull-Push Konfiguration mit zwei Actic P14 Lüfter als Push und zwei Silent Wings 3 als Pull. Den Stecker der AIO habe ich etwas umgemodelt, weil mir dort zu viel Kabel dran waren. Außerdem waren sie nicht gesleevt. Zusätzlich habe ich mir auch Stecker für die GPU gebastelt damit man keine Kabel mehr sieht. Die gesleevten Kabel habe auch ausgetauscht. Hier mal einige Bilder: Die Kühlleistung ist mit der AIO ziemlich beachtlich und dabei flüsterleise. Also die neue Asetek Pumpe ist wirklich ein Traum, hätte ich nicht gedacht. Als Temperaturvergleich habe ich momentan nur Werte von Ghost Recon Breakpoint. Da ich bei dem Spiel im GPU-Limit hocke, pendelt sich die CPU in meinem Setup bei rund 60w im Durchschnitt ein. Mit meinem gemoddeten Dark Rock Pro 4 hatte ich hier im Durchschnitt 50-52°C. Jetzt mit der Z63 sind es 40-42°C. Temperaturen 1h Ghost Recon Breakpoint Luftkühler: Temperaturen 1h Ghost Recon Breakpoint AIO: Die NZXT Z63 AIO kann ich daher absolut empfehlen und mit 6 Jahren Garantie braucht man sich auch keine Gedanken zu machen. Einziger Wermutstropfen, sie ist mit dem Display fast 100€ teurer als das Vorgängermodell, die X63. Jedoch muss ich zugeben, wenn man einmal das Display live gesehen hat und die ganzen Animationen und was damit alles geht, kommt schnell der "will haben" Wunsch auf. Ich bereue den Kauf nicht, eher im Gegenteil. Geplante Updates: Da mein System auf Augenhöhe steht, ist die Optik bei mir ein wichtiger Punkt und wenn irgendwas nicht passt, juckt es mir direkt in den Fingern. Daher werden demnächst die beiden 8-Pin CPU Stecker noch gegen schwarz geschleevtes Kabel getauscht und in die Decke kommt eine Carbonplatte rein. Puuh, ziemlich langer Beitrag sorry, aber so habe ich alles in einem Beitrag.
    5 Punkte
  16. Hab mir für's Büro ein kleines Upgrade gegönnt. Folgende Specs sind verbaut: - AMD Ryzen-5 5600G (mit iGPU) - B550i Aorus Pro AX - Scythe Big Shuriken 3 (Low-Profil Kühler) - 16GB G.Skill Trident Z (2x 8GB) @ 3.800 MHz CL16-16-16-32 (Sam B-Die) - 2x m.2 NVMe Samsung 970 EvoPlus 500GB - 400w BeQuiet Pure Power 10 (80+ Gold) (war über) - Beleuchtung: Wingboost 3 aRGB Lüfter & Phantkes Halo für PSU - Zweckentfremdetes offenes DIY-Case Da ich die Hardware gerne sichtbar haben wollte, habe ich diesmal ein bewegliches und offenes DIY-Case gebastelt. Anfangs wollte ich ein Testbench (für ITX) oder sowas ähnliches holen, aber das fand ich einfach viel zu teuer. Das DIY-Case hat mich nur 28 € und wenig Bastel-Zeit gekostet. Das "Gehäuse" kann man ganz nach seinem Belieben einstellen, da die Scharniere alle beweglich sind: Ein wenig RGB durfte auch nicht fehlen, weswegen der Wingboost Lüfter noch oben drauf kam und ins Netzteil habe ich ein Halo-Ring verbaut. Normalerweise gehören die oben drauf, aber das sah bisschen unschön aus. Die Temperaturen sind natürlich Top und der 5600G ist wirklich fix unterwegs. Also die neuen APUs von AMD sind schon nicht übel. Wenn man Lust hat, könnte man eine GPU anschließen und hätte direkt ein fertiges Gaming-Rig.
    4 Punkte
  17. Hallo Zusammen, Ich biete den X17 hier schon mal an, da ich definitiv beim Area 51m bleiben werde. Zustand ist absolut neuwertig, ist ja nur ne Hand voll Stunden gelaufen. Verbaut ist: I9 11980HK RTX3080 32GB XMP Ram 120Hz UHD Display 3 Jahre Premium Plus Vor Ort Service Temperaturen sind gut, kein Bleed und keine Pixelfehler. Wer also kein Lotto nach einem guten Gerät spielen will, kann hier zuschlagen. Abgeholt werden kann in 02625. Abholung wird absolut bevorzugt. Ich würde das Notebook zum Selbstkostenpreis weiter geben um den guten Preis nicht zu verschenken. Geht er dafür nicht weg, bekommt ihn Dell zurück. Auf der Rechnung stehen 3611€. Das ist auch der Festpreis. Listenpreis aktuell 4500€.
    4 Punkte
  18. Hier mal das Win11 ISO + Workaround, so dass ihr es auf den meisten Systemen zum Laufen bekommt.
    4 Punkte
  19. Wenn er im Forum in gute Hände kommt will ich auch kein Gewinn machen. +-0 reicht aus. Dafür bekommt jemand ein mit Adleraugen geprüftes Notebook. 😁 Und wer hier öfter mitliest weiß das das kein Witz ist 😅🧐
    4 Punkte
  20. Volles Verständnis, keinen Grund sich zu entschuldigen und danke schon mal für Dein Feedback. Ohne Experten zu sein, wollen ja auch nur, dass es vorangeht . Im schlimmsten Fall ernten wir gemeinsam die Früchte unserer Irrtümer Nun, erstmal zurück zum Displayport. Ja, genau, gemeint war ein Screenshot vom Nvidia Control Panel, (ab hier NCP genannt) das nach Rechtsklick auf Desktop ausgewählt werden kann. Dort hätte ich unter der Rubrik "Display" speziell die Punkte für "Mehrere Anzeigen..." und "Digitales Audio..." interessant gefunden. Ich glaube zum besseren Vergleich und der Nachvollziehbarkeit wegen ist es am besten, wenn ich einmal selbst einige Screenshots zeige, und zwar von einem unserer Setups mit einem Desktop (kein Aurora, MIFCOM Eigenbau) und einem einzigen Monitor (Samsung). Wenn angeschlossen via HDMI und/oder Displayport ist es möglich unabhängig vom Anschluss auch den Bootbildschirm zu sehen, also Anzeige erfolgt also nicht erst bei Windowsstart. Bilder 1)+2) ->nur mit HDMI-HDMI-Anschluss Bilder 3)+4) ->nur mit Displayport-Displayport-Anschluss Bilder 5) +6) ->mit beiden obigen Anschlüssen gleichzeitig. (Sorry für die Bildqualität) Anmerkungen allgemein: Sind mehrere Anschlüsse der Grafikkarte belegt, zeigt NCP eine Auswahl an Displays, auch wenn die von ein und demselben Monitor stammen. Je nachdem ob man die über den HDMI-Anschluss übermittelten Daten bevorzugt oder die vom Displayport, wählt man sich sein "Primary Display" aus , das dann mit einem Sternchen gekennzeichnet ist. Man kann mit mit einem Rechtsklick auf die Bildschirmsymbole und Auswahl von "identifizieren" jederzeit sehen welche Anzeige gerade aktiv ist. Gleichzeitig kann man im Menü des Monitors (bei Samsung unter Systeminfo) jederzeit die dort aktuell ausgewählte Eingangsquelle überprüfen. Festlegung des Primarybildschirms erfolgt mit Rechtsklick auf das Wunschdisplay und danach Auswahl "Anwenden/Apply". Dann heißt es am Monitor zügig die ensprechende Signalausgabe zu wählen, damit die Konfigurationsänderung im neu erscheinenden PopUp-Fenster (TimeOut ca 15 Sek) rechtzeitig bestätigt werden kann, sonst alles unwirksam. Nehmen wir mal an, Du hättest die Dp-Anzeige als Primary gewählt. Wenn Du mit dem beschriebenen Setup, also ein Monitor , ein PC, 2 Anschlüsse (HDMI und Dp) einfach nur über das Monitormenü von Dp auf HDMI wechselst, kannst Du dort keine offenen Programme bearbeiten. Das geht auch dann nicht, wenn Du sie mit der zuvor schon von @einsteinchenverlinkten Methode (*siehe weiter unten), quasi von dp-Display zu HDMI-Display, rüberschieben und dort sogar sehen würdest, außer natürlich Du ziehst das Displayportkabel ab, dann ist nur HDMI verfügbar. Sobald Du wieder Displayportkabel anschließt, sind die Anwendungen wieder da, wo sie angezeigt waren und Du müsstest wieder Ausgangsquelle Displayport wählen , um sie zu steuern. Du könntest, wenn Du magst, die obigen Beispiel-Setups, auch die mit jeweils nur HDMI und nur Displayport einmal nachstellen und für jede der Varianten selbst einen Vergleich ziehen mit Hilfe der Screenshots, am besten in der gleichen Reihenfolge, also -nur Hdmi, nur 1 Kabel , 1 PC , 1 Monitor -nur Dp, dito -dann HDMI Kabel rein, so dass beide Ports belegt sind -über Monitormenü zum aktiven Bildschirm wechseln, und dort zu NCP -Sicherstellen dass unter "mehrfache Anzeigen" beide Displays oben ausgewählt sind (2xHaken oben) und eins als Primär angezeigt wird -Aktuelles Primarydisplay "identifizieren" s.o., Gegencheck via Monitormenü Nun -Wenn Dp-Anzeige nicht schon als Primarydisplay markiert ist, diese als "primär" auswählen, Eingangsquelle wechseln auf Dp, "Anwenden", Konfig'. bestätigen -Wenn Displayanzeige zwar via Dp, aber Anwendungen in HDMI noch offen, diese entweder per *)Tastenkombo WIN, Shift und horizontalen Pfeiltasten > und < in das aktuelle Display holen oder wieder zurückschieben; Auswahl entweder durch Alt+Tab und Pfeiltasten oder im aktiven mit Mausklick in der Taskleiste. Dann Rechner neustarten und am besten hier melden Zum Thema Lüfterverhalten: Es gibt natürlich unzählige hardware-und softwareseitige Gründe, die für ein seltsames und unangenehmes Lüfterverhalten wie Du es beschreibst, verantwortlich sein können. Hinzu kommen noch äußere Einflussfaktoren wie hochsommerliche Temps. Nur wenige aktive Apps bedeuten ja auch nicht immer wirklich Idle-Zustand, wenn zB das System im Hintergrund "aufräumt, nachbearbeitet o.ä . Lüfterverhalten ohne dazugehöge Angaben zur Temperaturen im System zu analysieren macht i.d.R. auch nicht viel Sinn. Ich kann allerdings eh nicht beurteilen, wie die Lüfter Deiner R10 Edition, aber auch der Aurora generell designed sind, weder von der Charakteristik her noch von den Steuerungsmöglichkeiten. Vielleicht kann ja auch hier jemand aus der Community helfen mit Ideen/eigenen Erfahrungen. Ich persönlich empfehle, wann auch immer etwas, was im Bereich Mainboard-/BIOS-Steuerung angesiedelt ist, chaotisch zu laufen scheint, gern einen CMOS Reset bzw Clearing wie schon im vorherigen Beitrag erwähnt und im Servicemanual beschrieben. Tut nicht weh, macht den Weg frei, Signalverarbeitung wie am ersten Tag^^ Ansonsten selbst wenn "nur" die Lüfter schlicht fehlerhaft sein sollten, ist und bleibt der Support die richtige Anlaufstelle.
    4 Punkte
  21. Das area51m ist auch ein Gerät von alienware und hier ist ein alienware forum wo es hauptsächlich um alienware geht
    4 Punkte
  22. Also keinen Screenshot für uns, schade wäre interessant gewesen Ich persönlich glaube nicht, dass das eine Sache für den technischen Support ist. Letztendlich werden ja Signale übermittelt, nur später als wenn nur via HDMI angeschlossen. Tippe ehrlich gesagt eher auf ausstehende Patches. Soweit ich weiß hatten schon vor Jahren viele User, mMn vor allem welche mit einer Setupkombination AMD-Prozessoren/Boards und Nvidia Grafikarten, genau dieses Phänomen; bei Nutzung des Displayports zeigte sich Bildschirmaktivität erst nach Start von Windows, mit HDMI-Anschluss bereits vorher. Daraufhin bot Nvidia ein Tool an, das die Kompatibilität der Pascal Grafikkarten (10xx und Titan) mit den Displayport Standards 1.3 und 1.4 herstellte, nachdem es überprüft hat, ob ein Firmwareupdate für einen Teil vom VBIOS, das UEFI GOP (graphics output protocol), notwendig ist (*Link weiter unten). In der Erläuterung dazu hieß es: "Without the update, systems that are connected to a DisplayPort 1.3 / 1.4 monitor could experience blank screens on boot until the OS loads, .....". Das Zusammenspiel der Hardwarekomponenten während der Bootphase wird doch durch deren Firmware bestimmt, hier also also in erster Linie Mainboard, Graka, Monitor und das Kabel. Vorausgesetzt, dass all diese Geräte und die betreffenden Anschlüsse nicht defekt sind, können im Prinzip doch nur fehlende oder unzureichende Patches oder Designfehler dazu führen, dass sich das Setup mit Anschluss via Displayport allein anders verhält beim Booten als nur mit HDMI-Port. Was AMD angeht, hab ich schon vor einem Jahr Klagen darüber gehört, dass manche Chipsettreiber nicht immer und dann auch nicht richtig geupdatet werden, so zB der Installer für den I/O controller. Was das System-BIOS angeht, gab es zwar vor nur wenigen Wochen ein Update, und dann auch noch betreffend "Preboot Execution Environment" für Windows, aber wer weiß, ob sich da nicht etwas eher "verschlimmbessert" hat. Allerdings, wenn Du damit argumentierst, dass die Geräte erst 2 Monate alt sind, gehst Du ja wohl von einem Hardwareproblem aus. Falls Du Dich deshalb an Support wenden möchtest, wirst Du vielleicht mit nachstehenden Fragen konfrontiert, die wie hier sonst auch durchgegangen wären: Möglichkeit zuvor noch ein anderes Kabel zu testen oder Monitor mit DP Kabel an einen anderen PC anzuschließen? Über ePSA-Test hast Du auch keinen Hinweis irgendeinen Hinweis auf Mängel? BIOS Einstellungen im BIOS je geändert oder aktuell (vor Neustart nur mit Displayportanschluss) auf "default" gestellt, also auf Werkeinstellungen? CMOS-Einstellungen gelöscht per Jumper wie im Servicemanual beschrieben? Dann wäre die letzte bekannte/gespeicherte Systemkonfiguration gelöscht und Du könntest direkt mit solo Displayportanschluss System neu starten. und last but not least, wird man Dich womöglich auch noch bitten, Daten zu sichern und Windows neueste Version auf Basis aktueller Treiber und BIOS erneut zu installieren. Nun, Deine Entscheidung was besser ist, auf sinnvolle Patches in naher Zukunft zu hoffen, sei es von Nvidia oder AMD oder Dell, oder wegen der "Unannehmlichkeit" den Bootbildschirm via Dp nicht zu sehen zu bekommen, nun den Supportapparat in Gang zu setzen. Man geht ja auch nicht täglich ins Bootmenü und wenn nötig, könntest Du ja HDMI anschließen. So, sorry für langen Post, hab irgendwie vergessen innezuhalten^^ Viel Erfolg! *) https://www.nvidia.com/en-us/drivers/nv-uefi-update-x64/
    4 Punkte
  23. Nach nur 6 Tagen ist gestern mein Corsair One i200 mit 11900k (werde aber AMD 5900x nehmen) und 3080 angekommen und ich bin ziemlich begeistert. Die Pumpen laufen beide mit etwas unter 2000 RPM und der große Lüfter oben, welcher die warme Luft raustransportiert, läuft mit bis zu knapp 1500 RPM. Die Rede ist von Gaming unter Volllast (ohne Undervolting). Mit UV bei +100 MHz Core (geht sicher noch mehr - je nach Chip halt), + 500 MHz Memory und einem 0,9v cap (bei dieser Spannung erreichen ja viele Chips stabil in etwa die stock-perfomance) laufen die beiden GPU-Lüfter, die dann eben erst später anspringen, auf 1500-1900 RPM, je nachdem wie lastig das Spiel ist bzw. welche Engine genutzt wird. Die UE4 Engine ist z.B. nochmal fordernder als die meisten anderen. Bei dieser können dann auch knapp 2300 RPM bei einem der beiden GPU-Lüfter und bis zu 69 Grad anliegen. Dort werden die 320W auf der GPU dann eben schon bei 0,8XXv erreicht. Bei anderen Spielen wird für 0,9v nur 220W gebraucht..., aber das sollte ja bekannt sein. Je nach Spiel / Engine / Last dreht der große Lüfter oben auch nur mit z.B. 1300 RPM statt mit bis zu 1500 RPM (im Auslieferungszustand bzw. mit dem Standard-Profil). Wer sein Spiel cappt und es so eingestellt, dass dieses fps-cap überwiegend gehalten werden kann, der wird wie immer (neben stabileren frametimes) mit besseren Temperaturen und/oder geringerer Lautstärke belohnt. Die GPU-Temperatur bewegt sich bei den meisten Spielen mit dem 0,9er cap zwischen 60 und 65 Grad. Die CPU-Temperatur ist ebenfalls ähnlich. Unterm Strich ist der Rechner leiser und kleiner als gedacht. Und auch toll verarbeitet - ein tolles Stück Hardware! Natürlich hört er sich dabei sehr rauschig an, nochmal deutlich rauschiger als das Alienware Area 51m, welches zumindest für ein Laptop, ja auch schon sehr rauschig ist. Natürlich ist der Corsair PC insgesamt auch leiser als das Area 51m mit dem Standard-Silent-Profil (2500/2300 RPM). Mit dem 0,9ver cap ist der Corsair-PC ungefähr so laut wie das Area 51m mit ca. 2100 RPM (aber natürlich viel kühler und wie schon gesagt eben auch rauschiger). Bei wenig Last hört man ein leises Gurgeln, was bei Last dann aber nicht mehr hörbar ist. Da ich den PC eh nur für Gaming nutze stört mich das nicht. Möglicherweise ist auch etwas Luft im System. Ich habe soeben zwei (benötige für zwei Häuser jeweils einen) mit 5900x und 3080 bestellt und freue mich mit diesen meine UHD-Monitore sowie TVs besser ausnutzen zu können. 😎 "Controller-Spiele" zocke ich mit 60 fps cap, und "Maus-Spiele" mit 90 fps, so schaff ich in bisher jedem Spiel UHD mit hohen Details. Die oben genannten Werte sind aber auch ohne fps-cap darstellbar bzw. in dieser range. Beide Alienware Area 51m behalte ich aber trotzdem, einer ist nach wie vor für meine Frau fürs Coop-Gaming im Couchmaster und den anderen wird nächstes Jahr mein Sohn bekommen. In einigen Jahren kann man dann alles aufeinmal verkaufen und neukaufen, da die 2080 im Area 51m in FHD natürlich nicht langsamer ist als die 3080 in UHD. Wenn man berücksichtigt, dass man bei UHD nicht so eine starke Kantenglättung (frisst viel Leistung) braucht ist die Leistung so ziemlich identisch. So macht es dann irgendwann Sinn alles auf einmal zu ersetzen und nicht schon irgendwas zwischendurch. Ich dachte ich müsste die Lüftersteuerung beim Corsair-PC selbst in die Hand nehmen - muss ich aber nicht. Es reicht einfach nur ein GPU-Undervolting durchzuführen und schon ist der PC für mich leise genug. Bei UE-Games ist er etwas lauter - quasi stock (da auch mit einem 0,9v cap hier die 320W auf der GPU erreicht werden) - aber immernoch ok. Eins kann ich sicher sagen: wohl fast alle oder alle Fertig-Systeme werden lauter (und gleichzeitig wohl auch größer) sein. Selbst mein selbstgebautes ITX-System (NR200) mit hochwertigen Noctua-Lüftern (auch auf GPU) war im Grunde nicht leiser. Ja, für dieses Konzept/Design usw. zahlt man auch ordentlich. Mir ist es das aber wert.
    4 Punkte
  24. Hier mal ein Retro Video. Fand das echt cool zu sehen und weckt ein wenig Nostalgie was mich an Alienware immer so beeindruckt hat:
    4 Punkte
  25. Für all die Battlefield-Fans unter Euch, 9.Juni ist der Tag, welcher! 🙂 https://www.gamestar.de/artikel/battlefield-6-reveal-datum-trailer,3370270.html
    4 Punkte
  26. Ich muss hier nochmal etwas offtopic loswerden. Bestimmst du ab jetzt was normal ist? Nur weil du und deine Familie keine 4000 Euro für ein Notebook ausgeben wollen/können oder dich dann für blöd erklären würde, heißt es ja nicht, dass es blöd ist. Wer es sich leisten kann, der soll auch gerne 10k für ein Notebook ausgeben. Wieso auch nicht? Das ist weder nicht normal, noch blöd. Die Leute haben eben das Geld dafür, wenn du es nicht hast, dann ist das deine Sache. Trotzdem musst andere ja nicht gering schätzen, nur weil sie mehr Geld zum ausgeben haben als du. Er sagt ja gar nicht, dass er ein Assi ist, sondern das Verhalten. @pitha1337 ist bestimmt ein netter Typ, so kommt er mir zumindest im Forum vor. Allerdings würde ich das Verhalten auch nicht gutheißen wollen, man muss dabei immer bedenken, wenn so etwas überhand nimmt, dann werden die Dinge insgesamt teurer, weil die Kosten für die Rücksendungen auf den Verkaufspreis draufgeschlagen werden müssen, gerade wenn man die Sachen, dann nicht mehr als Neuware verkaufen kann. Ob es nun gegen geltende gesellschaftliche Normen verstößt weiß ich nicht, aber im Interesse anderer Mitglieder der Gesellschaft (hier der der Käufer) ist das sicher nicht. Das wäre ja die Definition von Asozial. Damit es nicht zu sehr Offtopic wird. @BrAvE Du hattest mal gesagt wegen der langen Lieferzeit, wieso bestellen. Ja stimmt die ist lang, aber dafür war das Gerät auch recht günstig. Da lohnt sich das warten dann. Ich zahle 1343€ für den 5800h, 3070, 32 GB und ner 512er GB SSD. Da warte ich dann auch mal ein paar Wochen drauf, außerdem bin ich ja nicht ohne Gerät. Dann bin ich jetzt wohl der einzige der das R4 noch hat
    4 Punkte
  27. Problem ist gelöst. Ich betreibe nun den AGA mit einer RX 6900XT im Referenzdesign an einem m17 R4 von März 2021. Hier Bilder und die Lösung dazu im Link. Radeon RX 6900 XT incompatibility with new m15 R4 released a month ago · Issue #6 · Shidell/OpenCaldera (github.com).
    4 Punkte
  28. Endlich ist es so weit und mein Eigenbau ist "fertig". Ich habe mich nach langem hin und her für einen PC entschieden. Hauptsächlich aufgrund der Aufrüstbarkeit im Vergleich zum mobilen Sektor. Gehäuse: Mein System findet in einem schwarzen O11 Dynamic Mini Platz. Das Gehäuse ist verhältnismäßig klein aber doch sehr modular und vielseitig. So bietet es Platz für eine sehr potente Custom WaKü. Mainboard: Hier habe ich mich für das Asus Rog Strix X570-I Gaming entschieden. Das kleine ITX-Board hat sich gegen seinen kleinen Bruder mit B550 Chipsatz durchgesetzt, da es mit zehn 70A Phasen die potentere Spannungsversorgung hat. Außerdem mit RGB, was allerdings kein Kaufgrund war. RAM: Auf dem Board arbeiten 64GB G.Skill Trident Z RGB bei 3800MHz. Dieses Tempo funktioniert noch sehr gut mit der AMD Plattform. CPU: Hier habe ich mich nach langem Suchen doch für einen 5800X entschieden. Ich wollte gern den 5900X haben, doch kam nicht zu vernünftigen Preisen heran. Vielleicht hab ich ja nochmal Glück - aber ansonsten ist der 5800X auch verdammt schnell! Grafikkarte: Aktuell habe ich als "Übergangsgrafikkarte" eine Titan X (Maxwell) verbaut. Bei den aktuellen Preisen widerstrebt es mir doch sehr eine neue Karte zu kaufen. Sobald die Marktsituation wieder etwas entspannter ist soll hier eine RTX 3080 (evt. TI) Einzug halten. Netzteil: Durch die vom Gehäuse gegebene Limitierung auf SFX und SFX-L Formate war die Auswahl recht klein. Letztendlich ist es das Corsair SF750 geworden. Habe mir sehr viel dazu angeguckt und glaube eine gute Wahl getroffen zu haben. Festplatte: Stand jetzt ist nur eine 1TB M.2 SSD von Crucial verbaut. Den zweiten M.2 Slot, den das Mainboard bietet muss ich etwas verlagern (Riser Kabel), da er auf der Rückseite vom Mainboard sitzt. Ist zwar ne nette Idee aber es lässt sich so kein Kühler mehr montieren. Ich weiß nicht, ob ich den überhaupt nutze oder als Datengrab auf die günstigeren 2,5" SSDs setze. Die sitzen dann unsichtbar hinten im Gehäuse und als reiner Massenspeicher für Spiele sollten die ja auch noch gut sein. Auf jeden Fall werde ich keine HDD verbauen. Durch die Custom WaKü ist das System so leise, dass eine HDD mit Abstand das lauteste Bauteil wäre! Kühlung: Wie bereits erwähnt habe ich mich für den Bau einer Custom Wasserkühlung mit Hard Tubes entschieden. Im System befinden sich drei Radiatoren: zwei 360er und ein 240er. Da man ja für ein leises System mit ca. 120mm Radiator pro 100W rechnet, sollte das ausreichend sein. Eine D5 Pumpe/Ausgleichsbehälter-Kombi fördert die Kühlflüssigkeit in einen EK-CPU-Kühler (Nickel/Acryl-Ausführung). Von dort geht es weiter in den GPU Kühler. Da die Karte beim Kauf von einer AIO gekühlt wurde habe ich mich aus Spaß dazu entschlossen, mir einen billigen universalen GPU Kühler zu kaufen und den einfach mal auszuprobieren. Dieser ist tatsächlich überraschend gut - aber dazu später mehr. Von der GPU fließt das Wasser in den unteren Radiator. Dort (am tiefsten Punkt) ist auch ein Ablasshahn montiert, um es mir später einfacher zu machen, wenn ich irgendwelche Komponenten tauschen möchte. Es soll auch noch ein Wassertemperatursensor verbaut werden, der dann die Lüftersteuerung übernimmt. Aktuell laufen alle fest bei maximal 700rpm, was zwei Stunden Furmark und Prime95 standgehalten hat. Die Pumpe läuft aktuell fest bei 30%. Die Temperaturen wären noch um 2-5°C besser, wenn die Pumpe schneller liefe - aber dann wird sie hörbar. Bei 30% kann man sie nur hören, wenn man das Ohr direkt dran legt. Lüfter: Bei den Lüftern habe ich zwei Typen verbaut. Bei der Auswahl habe ich mich am Lüftertest von Caseking (YouTube) orientiert. Die haben da einen sehr guten Vergleichstest von verschiedensten Lüftern gemacht. Im direkten Sichtfeld habe ich mich für die Alpenföhn Wing Boost 3 entschieden. Die finde ich optisch einfach wahnsinnig cool und sind auch vergleichsweise leistungsstark. Unten habe ich dann noch drei Arctic P12 PWM Lüfter verbaut. Die haben überraschend gut abgeschnitten was Lautstärke und Leistung betrifft und haben einen unschlagbaren Preis! Temperaturen: Ich habe noch nicht so viel testen können, kann aber schon sagen, dass die Kühlung der Wahnsinn ist! Alle Lüfter laufen fest mit 700rpm und trotzdem sind die Temperaturen auch nach langer Zeit super! Ich habe für zwei Stunden, als Stabilitätstest, Furmark und Prime95 parallel laufen lassen. Nach den zwei Stunden war zwar das Gehäuse oben angenehm warm aber die CPU lag lediglich bei 71°C unter Last und die GPU bei 59°C unter Last. Die GPU lief Stock und bei der CPU habe ich nur das Auto OC angemacht. So lief sie den ganzen Test lang mit 4,5GHz auf allen Kernen. Leistung: Ein schneller Time Spy mit Stock Einstellungen sieht wie folgt aus: Ich glaube man braucht nicht erst erwähnen, dass die GPU hier das schwächste Glied ist. Ich bin jedenfalls jetzt schon sehr gespannt, wie das dann mit einer neuen Karte aussieht. Contra: Leider gibt es auch ein paar Kleinigkeiten, die mir nicht gut gefallen. Zuerst die Kleinigkeit: Die G.Skill RAM Riegel sehen zwar super cool aus, stellt man die RGB Beleuchtung jedoch auf weiß, so ist es recht gelbstichig während der Rest schön klar weiß ist. Die etwas störendere Sache ist auf dem Mainboard. Dort sind zwei kleine Lüfter verbaut. Einer für den Chipsatz und einer für die Spannungsversorgung der CPU. Der auf dem Chipsatz läuft wenn überhaupt nur langsam und leise. Doch der für die Spannungsversorgung nervt. Laut ist zwar was anderes aber dieses hoch und runter gedrehe stört dann doch. Vor allem bei Spannungswandlertemperaturen von 60°C, was jetzt eigentlich noch kein Grund wäre in Panik zu verfallen. Leider kann man diese beiden Lüfter nur mittels Mod-Bios steuern. Schade Asus! Da muss ich mir langfristig was einfallen lassen. Hier noch ein paar Bilder vom System. Ich denke dafür, dass es mein erster Eigenbau-PC überhaupt ist, kann ich ganz zufrieden sein.
    4 Punkte
  29. Ich habe den U3-Kühler wie angekündigt nun auch am m17 R4 getestet. Hierzu habe Cyberpunk 2077 genommen, was CPU- und auch GPU-anfordernd ist (vorallem die CPU muss hier stark schuften, aber auch die GPU kommt nicht zu kurz, auch wenn es hier schlimmere Games gibt). Die GPU habe ich stock gelassen. Die CPU lief mit -100mv. Ich musste leider einmal mit dem stillen Lüfter-Profil testen und einmal mit dem ausgeglichenen Lüfter-Profil. Normal würde ich ja nur mit dem stillen Lüfter-Profil testen, das macht jedoch beim m17 R4 leider keinen Sinn, weil in diesem nach bereits wenigen Minuten die CPU sehr stark gethrottelt wird. Um den Unterschied mit und ohne U3-Kühler aufzuzeigen, musste ich hier das ausgeglichene Lüfter-Profil nehmen, wo die CPU weniger künstlich (also nicht nur wegen Temperaturlimit) gethrottelt wird. Das stille Lüfter-Profil habe ich aber eben nach wie vor auch noch getestet, da nur hier die GPU ohne Kühler throttelt. Hier kann der U3-Kühler beweisen, ob er es schafft, das Throttling vollständig aufzuheben (kleiner Spoiler: ja, locker :D) Der besseren Übersicht wegen habe ich die GPU fett hervorgehoben, damit sich die Wörter GPU und CPU besser voneinander unterscheiden. Ohne Kühler, stilles Lüfter-Profil CPU Temperatur Durchschnitt: 84 Grad CPU Temperatur Maximum: 85 Grad CPU Takt Durchschnitt: 2,94 GHz CPU Takt gegen Ende: 2,9 - 3,0 GHz GPU Temperatur Durchschnitt: 78 Grad GPU Temperatur Maximum: 80 Grad GPU Takt Durchschnitt: 1540 MHz GPU Takt gegen Ende: 1455 - 1570 MHz schwankend Mit Kühler, stilles Lüfter-Profil CPU Temperatur Durchschnitt: 78 Grad CPU Temperatur Maximum: 89 Grad CPU Takt Durchschnitt: 2,92 GHz CPU Takt gegen Ende: 2,9- 3,0 GHz GPU Temperatur Durchschnitt: 74 Grad GPU Temperatur Maximum: 75 Grad GPU Takt Durchschnitt: 1739 Mhz GPU Takt gegen Ende: 1740 MHz Ohne Kühler, ausgeglichenes Lüfter-Profil CPU Temperatur Durchschnitt: 87 Grad CPU Temperatur Maximum: 97 Grad CPU Takt Durchschnitt: 3,36 GHz CPU Takt gegen Ende: 3,2 GHz GPU Temperatur Durchschnitt: 79 Grad GPU Temperatur Maximum: 80 Grad GPU Takt Durchschnitt: 1739 MHz GPU Takt gegen Ende: 1740 MHz Mit Kühler, ausgeglichenes Lüfter-Profil CPU Temperatur Durchschnitt: 82 Grad CPU Temperatur Maximum: 92 Grad CPU Takt Durchschnitt: 3,48 GHz CPU Takt gegen Ende: 3,8 - 4,0 GHz GPU Temperatur Durchschnitt: 72 Grad GPU Temperatur Maximum: 73 Grad GPU Takt Durchschnitt: 1739 MHz GPU Takt gegen Ende: 1740 MHz Kleine Zusammenfassung - der U3-Kühler bringt: Stilles Lüfter-Profil: mindestens 200 MHz mehr Takt bei der GPU, gleichzeitig 4 Grad weniger CPU-Temperatur 6 Grad geringer Ausgeglichenes Lüfter-Profil: mindestens 120 MHz mehr Takt bei der CPU, gleichzeitig 5 Grad weniger. Gegen Ende bzw. nach 10 Minuten war der Taktunterschied sogar bei 600-800 MHz auf allen 8 Kernen, umso länger man testen / spielen würde, umso größer wäre der Vorteil bei Nutzung des U3-Kühlers. +800 MHz bedeuten ca. 4,0 GHz, mehr ist dann bei 60W nicht drinnen, höher kann es (bei Cyberpunk 2077) nicht gehen, aber bis zu +800 MHz auf allen 8 Kernen ist ja auch schon ne Ansage... GPU-Temperatur 7 Grad geringer Wichtige Infos / Erkenntnisse / Erläuterungen die Noctua-Lüfter des U3-Kühlers wurden auf ca. 80% betrieben (deutlich leiser als das m17 R4 im stillen Modus) Laufzeit jeweils nur 10 Minuten. Sorry, länger keine Lust gehabt, aber das m17 R4 erwärmt sich sehr schnell, außerdem würde nach längerer Spiel-Zeit der U3-Kühler also noch mehr seinen Vorteil ausspielen. Die genannten Ergebnisse sind also der Mindest-Vorteil des U3-Kühlers die fps in der belebten Stadt bei Cyberpunk 2077 sind im stillen Lüfter-Profil aufgrund des oben genannten stark einsetzenden CPU-Throttlings (künstlich seitens Alienware) merkbar geringer als mit dem ausgeglichenen Lüfter-Profil die GPU wird im stillen Lüfter-Profil nicht wie die CPU künstlich limitiert, der geringere Takt im Vergleich zum ausgeglichenen Lüfter-Profil kommt hier durch das (sinnvolle) Temperatur-Limit von 80 Grad zu Stande. Weil hier nur ein Temperatur-Limit anliegt, ist der U3-Kühler auch in der Lage, den Takt der GPU zu erhöhen bzw. sogar gleichzeitig noch die Temperatur zu verringern selbst das lautere bzw. laute Lüfter-Profil Ausgeglichen schafft es ohne U3-Kühler bei der CPU langfristig gerade mal 30 Watt zu halten (bei 85 Grad) der U3-Kühler schafft es, das GPU-Throttling im stillen Lüfter-Profil vollständig zu eliminieren. Und das sogar bei geringerer Temperatur ich sehe im ausgeglichenen Lüfter-Profil nur knapp 60W, was aber natürlich deutlich mehr ist als 25W im stillen Lüfter-Profil. Jedoch nutzt Cyberpunk die knapp 60W gnadenlos aus. Der U3-Kühler erlaubt statt 3,2 GHz am Ende 3,8-4,0 GHz, das ist ein plus von 600-800 MHz auf allen 8 Kernen! auch super laute Lüfter-Profile wie „Volle Geschwindigkeit“ ändern nichts daran, dass ich maximal knapp 60W bei Cyberpunk 2077 anliegen habe. Der GPU-Takt ändert sich auch nicht mehr. Gegenüber dem ausgeglichenen Lüfter-Profil gibt es also keinen Perfomance-Vorteil, maximal auf lange Sicht. Unabhängig davon, ob man dem m17 R4 Frischluft zuführt, das harte CPU-Limit von nur 25W nach wenigen Minuten im stillen Lüfter-Profil bleibt erhalten (das war jedoch zu erwarten) Fazit Wie zu erwarten war bringt der U3-Kühler ordentlich was (wie eben bei vielen anderen Notebooks auch). Natürlich profitieren neben der CPU- und GPU-Temperatur und den jeweiligen Taktraten auch alle anderen Temperaturen (Ram, Mainboard, SSD, Gehäuse, Tastatur usw.). Jedoch ist der U3-Kühler natürlich nicht in der Lage dazu, irgendwelche ärgerlichen Limitierungen, vorallem im stillen Lüfter-Profil, auszumerzen. Beim m17 R4 macht meiner Meinung nach die Nutzung des stillen Lüfter-Profils leider keinen Sinn. Erst ab dem ausgeglichenen Lüfter-Profil erhält die CPU mehr Freiheiten. Die GPU kann jedoch selbst ohne U3-Kühler in diesem lauten Lüfter-Profil ihre 1740 MHz halten. In diesem ausgeglichenen Lüfter-Profil kann der U3-Kühler also daher "nur" die Temperaturen verbessern. Im stillen Lüfter-Profil eben auch für mehr Taktraten sorgen, die starke Limitierung der CPU in diesem Profil bleibt aber natürlich leider erhalten. Wie gesagt ist eigentlich erst das ausgeglichene Lüfter-Profil sinnvoll, was mir jedoch viel zu laut ist (von der hochfrequenten Lüfter-Charakteristik mal noch gar nicht zu sprechen). Was ich sonst noch so vom m17 R4 halte, kann hier nachgelesen werden.
    4 Punkte
  30. Ich hatte damals das erste OLED Display im 13er Alienware und überhaupt keine Probleme mit einbrennen. Im Moment besitze ich einen m15 r2 mit OLED Display, also Nein man möchte dann nichts anderes mehr sehen😅😉 Das Display ist was Farben, Kontrast, Schwarzwert, Schärfe angeht ein absoluter Traum und die 60 Hz stören mich persönlich nicht.
    4 Punkte
  31. Hier mal unkommentiert die Bilder vom Repaste. Bisschen was fehlt weil ich keine Fotos mehr gemacht habe 🙈
    4 Punkte
  32. Mit BIOS Thematiken befasse ich mich ja gern 💪 Bei einem "TCC Offset" handelt es nicht um das klassische undervolten, wie wir das von TS kennen, sondern um eine Temperatursteuerung via TjMax (hatte das Thema im HWinfo-Thread mal angerissen) bzw. CPU-Temp Target. TCC steht übrigens für "Thermal Control Circuit". Für's undervolten brauchen wir normalerweise aber was mit einem V (Voltage). Ist zwar ein wenig technisch, aber in der kleinen Dokumentation von Intel wird das TCC Offset erklärt -PDF (Intel Developer Kit)- Er gibt hier eine 15 ein. UV-technisch würde das so zunächst wenig Sinn machen. -015mV kann man sich sparen und für -150mV wäre die Skala zu grob. Weiter sagt er auch: ... "TCC offset will reduce maximum CPU temps but may also slightly reduce CPU performance in certain applications". Normales UV macht diesen "reduce performance"-Teil ebenfalls nicht. Was er da tatsächlich macht, er zieht die 15 von maximalen CPU-Temp Target ab. Das bedeutet, wäre das TjMax 100°C, drosselt die CPU nun bei 85°C und da wären wir wieder bei dem tollen Thema "Augenwischerei". Die Temp-Werte in HWinfo und AWCC sehen so sicherlich Spitze aus, aber auch nur, weil die CPU durch TCC gezwungen wird zu drosseln, wo noch keine roten Zahlen auftauchen. Ich hoffe, dass es verständlich ist. Sowas nervt mich immer. Es wird irgendein ein Feature angepriesen, der naive AW-Fanboy freut sich, dass AW irgendein nützliches Feature implementiert hat, aber in Wirklichkeit wird die Leistung durch dieses Feature einfach schon vorher reduziert. Er sagt: "...a lot of people online have asked for a solution and wie listen". Am A****, kein Mensch hat nach TCC gefragt. Die Leute wollten wieder die Möglichkeit haben zum Undervolten. MSI, Eluktronics usw. geben dem User (wieder) die Möglichkeit das selber zu entscheiden, nur AW muss hier wieder so ein Blödsinn machen.
    4 Punkte
  33. Im Freundeskreis habe ich zwei Leute, die immer bei ASUS waren und auch immer bei ASUS bleiben werden. Fühlen sich damit halt am wohlsten. Mir gefallen die Tweak-Tools von ASUS auch am besten. Bei ITX würde ich wahrscheinlich zu ASUS greifen, jedenfalls dann, wenn das Board auch etwas potenter sein darf. Bin mir gerade nicht sicher, evtl hat EVGA auch ein ITX Board in der Leistungsklasse. Wenn man ein Setup mit Hardtubes vorhat, macht man das eigentlich überwiegend wegen der Optik. Wobei ich sogar Systeme mit schwarzen Neopren-Schläuchen richtig schön finde. Wenn du bei deiner Farbauswahl noch unsicher bist, hätte ich evtl. einen Vorschlag für dich:
    4 Punkte
  34. Hallo Jungs. Kann euch vorab Berichten das ich ein MSI GP76 gekauft habe . Zum Notebook kann Ich folgendes Berichten : Neutral: Voll Kunststoff Gehäuse 2 Lüfter (einstellbar über das MSI Dragon Center) Negativ empfinde ICH : Sehr laut (wenn nicht Leise gewählt wird) - im Leise Modus bekommt die CPU nur mehr 30 Watt und somit LEISE Tastatur kleine Enter Taste und (FN) Zusatzfunktionen überall verstreut manuelle Lüfter-Kurvenanpassung - funktioniert bei mir nicht !? Info: Hidden Optionen im BIOS sind mit einer Tastenkombination EINFACH zum Freischalten Habe ein Razer Blade 17 PRO 2020 Zuhause und ein MSI GP76 welche Ich beide mit Prime95 + Furmark 2h getestet habe. Das Razer hat : i7 10785H und eine RTX2070 MaxQ mit 16GB Ram und 512GB SSD - 300HZ Full HD Das MSI hat: i7 10780H und eine RTX 3060 mit 16Gb Ram und 512 SSD - 144HZ Full HD Geprüft wurden beide Notebooks im Leise Modus ! Ergebnis: Im Idle verbraucht das Razer ca. AVG : 1,620 Watt und bleibt bei 36°C - Idle Max : 3,642Watt bei 43°C Das MSI verhält sich ähnlich : Idle AVG : 2,430 Watt bei 38°C - Idle Max AVG: 5,637Watt bei 45°C Bei beiden Notebooks sind die Lüfter bis 52°C komplett STILL - keine Bewegung Nach 2H Prime 95 und Furmark : Razer Blade : CPU 82°C - GPU 75°C (ohne Afterburner) MSI GP76 : CPU 86°C - GPU 82°C (ohne Afterburner) Furmark 1920 x 1080 8xMSAA MSI GP76 : AVG : 45 FPS - 1500 -1650 MHZ Razer Blade : AVG : 39 FPS - 1100 -1230 MHZ Für mein Empfinden ist das MSI leiser(angenehmer)als das Razer aber das Razer ist sehr viel wertiger . Desweitern kann man mit Widerständen bzw. Dioden die Lüfter von 5V auf 2V herabsetzen ohne das es die 90°C erreicht werden im Leise Modus bzw. 2300 U/min. Unter HW Info sind beim GP76 keine GPU Informationen hinterlegt ,aus welchen Grund auch immer ? Bin auf Morgen gespannt was von Alienware vorgestellt wird !
    4 Punkte
  35. Hier im Forum sind auch eher ruihgere und nicht so aufgeregt Leute unterwegs, was ich übrirgens sehr schätze. Auf anderen Foren oder sozialen Medien sind einerseits deutlich mehr Leute unterwegs als hier und dann sieht man dort auch die Leute eher, die sich über irgendwas beschweren. Prinzipiell hört man eh immer mehr von denen, die sich beschweren, kenne wir ja hier bei Problemen mit den Aliens. Ja, Cyberpunkt hat Bugs und glitshes. Ja, die Welt ist nicht perfekt und die KI eher doof. Ja, der Realease mit den vielen Verschiebungen war für den Ar****. Ich will da nichts schönreden. Aber diese ständige schwarz-weiß Gehabe von den Leuten, die keine Graustufen kennen, nervt mich. Ich hab eher das Gefühl als würden die Leute lieber ins Inerternet schreien und tagelang auf dem Spiel und den Entwickerln herumzuhacken, anstatt mal zu spielen. Ob man dann das Setting mag oder nicht und vielleicht die Geschichte oder Charaktäre doof findet ist Geschmaksache. Aber sich darüber zu beschweren wie scheiße alle ist hilft halt akut nichts, außer, dass es wie die selbsterfüllende Prophezeiung eintritt, da man sich das Spiel selbst madig gemacht hat. Das Setting von Cyberpunk ist speziell. Das muss nicht jeder mögen. Auch sind Rollenspiele in einer offenen Welt nicht für jeden, dort muss man sich manchmal durch lange Fahrten oder nicht perfekte Gebiete der Welt brigen. Den Spaß am Spiel findet man aber nicht wenn man an jeder Ecke nach Fehlern sucht. Bei anderen Geren ist es einfacher die Spieler in den Bann zu ziehen und zu beschäftigen. Eine eher lineare Welt wie bei The Last of Us 2 ist einfacher zu polieren als eine offene Welt die man frei bereisen kann. Auch wenn der Vergleich zwischen The Last of Us 2 (oder anderen lineareren Spielen) zu Cyberpunk nicht ganz fair ist, muss das Spiel sich das tortzdem nach dem ganzen Hype gefallen lassen. Ob wir als Spieler die flaschen Vorstellungen hatte, oder ob die Presse und der Entwickler falsche Erwartungen geweckt haben, ist schwierig zu sagen. Ich kann mir nur gut vorstellen, dass zu den "mimimi, das Auto hängt in der Luft und deswegen ist das komplette Spiel scheiße" auch noch Leute dazukommen, die einfach eine falsche Vorstellung von dem Spiel hatten. Aber prinzipiell geben ich dir recht @Sk0b0ld. Jeder sollte sich selbst ein Bild davon machen, und das mit der möglichsten besten Version von dem Spiel. Ich persönlich hatte sehr viel Spaß damit, trotz der Macken. Aber wie geil wäre es gewesen, wenn es keine Macken gegeben hätte...
    4 Punkte
  36. @herberg.rene@googlemail.co: Hallo Rene, Die OSD-Software hat je nach Gerät unterschiedliche Auslegungen, hauptsächlich dient sie aber zur Umsetzung der Funktionstasten-Befehle. Manchmal wird dann über die OSD-Software noch ein grafisches Symbol eingeblendet oder ein Fenster mit dementsprechendem Text wenn man eine Funktionstaste betätigt. Es gibt Geräte, wo manche Befehle nur bzw. ausschliesslich mit der OSD-Software ausgeführt werden können. Manche Funktionstasten funktionieren aber auch ohne diese Software. Wie gesagt, es kommt immer auf das einzelne Gerät an. Sollte es für dein Gerät eine OSD-Software von Dell geben, solltest du sie auch installieren. Ein Nachteil entsteht dir dadurch auf gar keinen Fall. Gruß Jörg
    4 Punkte
  37. Deine CPU ist wahrscheinlich bei der 960 im AGA das schwächste Glied der Kette. Es handelt sich um eine 2-Kern und 4-Thread CPU mit 2,4GHz im Turboboost. Diese Leistung kann nicht mit heutigen Karten mithalten. Zudem ist bei deinem u (ultra) Prozessor die TDP mit 15W bemessen und die Powerlimits meist recht eng gehalten. Nur zum Vergleich: Ich habe in meinem 18er die (fast) stärkste mobile CPU der vierten Generation. Mein 4930mx hat 4-Kerne 8-Threads und taktet im Spiel mit 4,2GHz auf allen Kernen. Mit meinen beiden 980ms (wenn SLI gut unterstützt wird, vergleichbar mit einer 1070 mobile) ist die CPU trotzdem schon fast am Ende. Natürlich kommt es immer aufs Spiel an. Du wirst bestimmt in manchen Spielen einen Vorteil haben, wenn du dir z.B. eine 980 oder 1070 in den AGA baust. Aber meistens wird trotzdem die CPU das Problem sein. Mein Tipp: Da du wirtschaftlich bleiben willst, kannst du mal Ausschau nach einer günstigen (vielleicht gebrauchten) 970 oder 980 gucken. Alles was darüber hinaus geht wird denke ich meistens im CPU-Limit stecken und dir daher keinen Leistungsgewinn bringen. Solltest du ein Auge auf heutige AAA-Titel geworfen haben, so hilft wohl leider nur ein neues Gerät. Da du ja bereits einen AGA hast und falls du im mobilen Sektor bleiben willst, könntest du ja nach einem gebrauchten Alien Ausschau halten und dabei hauptsächlich auf eine starke CPU achten. Dann kann in den AGA auch eine 20xx Karte Einzug halten. Die werden ja bestimmt in den nächsten Wochen günstiger, sobald die 30xx Karten in größerer Stückzahl auf dem Markt sind.
    4 Punkte
  38. Die 980m wird im r3 daran scheitern, daß dieser kein "pure UEFI" unterstützt, max. beim r3 sind daher 780m/880m, wobei die allg. Empfehlung bei der 780m liegt, aufgrund der bekannten Tendenz der 880m zu überhitzen. Leider gibt es da aber auch das Problem der Kompatibilität mit dem Soundchip im r3, welcher vor dem Einbau der 780m/880m ausgeschaltet werden (und ausgeschaltet bleiben) muß. Einige wenige hatten es wohl geschafft, diesen nach Einbau und Installation des Treibers wieder zu aktivieren, soweit mir bekannt.
    4 Punkte
  39. dieses sollte evtl. passen: Dell 330-Watt-Netzadapter mit European 1.83 meter langem Netzkabel | Dell Deutschland
    3 Punkte
  40. Hey, das ist natürlich sehr unglücklich gelaufen. Da du ein verhältnismäßig neues Gerät hast könnte dir das hier weiter helfen. Falls das nicht funktioniert kannst du noch einen blindflash mit einem DOS-USB-Stick versuchen. Sollte das auch nicht helfen und solltest du gut löten können kannst du auch den BIOS-Chip auslöten, ein neues BIOS extern flashen und wieder einlöten. Ich habe das hier schonmal gemacht.
    3 Punkte
  41. https://youtu.be/r2eqzK2afTU CPU Benchmarks mit RAM Upgrade…
    3 Punkte
  42. Wenn du kein 4K/QHD hast, dann hast du kein 4K/QHD 😀 Selbst die 200W RTX 2080 Super ist bei FullHD unterfordert. Das ist einfach schade… Von mir aus sollen die das Chassis vom Area 51m R2 nehmen und dort ein Mainboard mit 11th gen und RTX 3080 reinpacken (nichts wechselbar, falls das das Problem von Dell war) Dazu den 4K Screen und gut ist. Dann reicht auch nur ein Netzteil Dell falls du mitliest „Es muss nicht immer dünner werden,danke“
    3 Punkte
  43. Neuer aurora r7 fürs homeoffice https://www.notebookcheck.com/Expanscape-Aurora-7-Mobiler-Workstation-Laptop-mit-7-Bildschirmen-vorgestellt.519358.0.html
    3 Punkte
  44. Hatte das bei CP2077 mal gegenübergestellt. Beides mal das gleiche Savegame, Gleiche Details, Beide Systeme mit OC. m17 R4, 3080, i7 Desktop mit 3090. Power der 3090 Strix wird mit Kingpin vBios falsch ausgelesen. Sind ca 500w.
    3 Punkte
  45. ... und wenn du schalldichte Kopfhöhrer nutzt und niemand anderes im Raum ist... 🤣 sorry, das musste sein..
    3 Punkte
  46. Hallo Ulibo, wenn es die originale Wiederherstellungspartition - bzw. Image ist, dann kannst du unmittelbar nach dem Alienware Logo beim Gerätestart mit "F8" die Reparaturoption auswählen. Diese sollte dich dann zum "AlienRespawn" führen. Das AW15 R1 wurde jedoch mit Windows 8.1 ausgeliefert. Ich würde von dieser Option daher abraten. Das AlienFx dieser Gerätegeneration ist zwar robuster, aber dennoch würdest du mit dem Recovery der Systemauslieferung wieder ein älteres CommandCenter aufgespielt bekommen ... es verbleibt immer ein Risiko in dieser Richtung. Ich selbst betreibe ein AW15R1 unter Win10 in der aktuellsten Version 20H2. Für alle Systemkomponenten existieren Treiber, sogar von Dell selbst. Es gibt keinerlei Funktionseinschränkungen. Von daher rate ich lieber zu einer Win10 Neuinstallation direkt aus der jetzigen Installation heraus, mit anschließend sauberer Installation aller Treiber, gemäß unserer empfohlenen Treiberreihenfolge für dieses Gerät. PS: ich glaube @Jörg ist auch kein wirklicher Freund vom AlienRespawn
    3 Punkte
  47. Also es ist soweit. Die Strix 3090 OC ist eingebaut. Habe die Karte erstmal auf 0.861 V undervoltet und auf 1900 mhz max gepinnt und die CPU auf 1.250 V undervoltet um die Gesamttemperatur zu senken. Die GraKa erreicht so nicht mehr als 68°. Die CPU habe ich ausserdem auf 4.7 ghz Sync all Cores eingestellt. Wie erwartet hat die GraKa ein leises Spulenfiepen, welches ich aber vollkommen akzeptieren kann. Muss wirklich sagen, dass ich die Strix als schönste aller Custom Karten sehe. Der Brocken ist einfach nur riesig. Jetzt ist dann auch erstmal fertig mit Karten switchen. Dieses Jahr kommt vielleicht eine komplette Wasserkühlung ins System. Mal schauen. Wünsche euch allen ausserdem ein frohes neues Jahr und hoffe Ihr seit gut reingerutscht. Grüsse aus der Schweiz DerGerät
    3 Punkte
  48. So... Es is geschafft. Ausser das die Strix 3080 noch nicht da ist, ist mein Rechner fertig. Habe im Bios die Kerne auf "Sync all" und 4.6GHz eingestellt und ein wenig undervolted. Die Temps der CPU erreichen momentan bei allen Games nicht mehr als 52° und die GPU jedoch noch 70 Grad im OC Modus. Im Benchmark Fire Strike erreicht der Rechner knapp über 30000 Punkte und bei Time Spy knapp 17500 Punkte. Bin also alles im allem sehr sehr happy. Die vertikale GPU Halterung war nun von Cable Mod, da die von Phanteks einfach nich angekommen ist. Wollte nicht mehr warten. Bin auch noch sehr zufrieden mit der Gigabyte RTX 3080 Vision aber das mit der RGB gefällt mir nicht. Daher muss die Strix her. Sollte in den nächsten 2 Wochen ankommen. Meinen Monitor habe ich auch gewechselt. Ist nun ein Asus RoG Swift, 27 Zoll, 144 hz, Gsync. Man merkt...alles Asus oder was? 😀 Wünsche noch einen schönen Abend.
    3 Punkte
  49. Der vom 2000€ Angebot kam mir auf 1800€ entgegen... Der ist auch nicht so weit weg, dass ich mir das vor Ort angucken könnte... Ich denke 1800€ sind ok für den i7 und ne 2080... Schaue mir das Gerät die Tage mal an.
    3 Punkte
Diese Rangliste ist auf Berlin/GMT+02:00 eingestellt
  • Newsletter

    Möchtest Du über unsere neuesten Aktivitäten und Informationen auf dem Laufenden bleiben?

    Anmelden
×
×
  • Neu erstellen...

Wichtige Information

Please note following information: Nutzungsbedingungen, Datenschutzerklärung and Community-Regeln. Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.