Zum Inhalt springen

Robman

Mitglied
  • Gesamte Inhalte

    919
  • Benutzer seit

  • Letzter Besuch

  • Tagessiege

    46

Alle Inhalte von Robman

  1. Du musst mal auf den Speichertakt achten, am besten in Echtzeit per OSD ingame bei lastigen Games. Gut möglich, dass der sich nämlich runtertaktet, weil er zu heiß wird. Dann bringt dir das OC in dem Moment natürlich gar nichts (was aber halb so schlimm wäre). Gerade weil du 400 statt 350W nutzt (Karte wird also heißer) und außerdem soll die FE, genauso wie z.B. die MSI Gaming X Trio, nicht so ideal sein für Speicher-OC (laut igorslab.de). Der Speicher bei der 3090 ist halt auch allgemein schon sehr hochgezüchtet.
  2. Du hast sicher ein einfaches OC von 75 MHz gemacht? Hier verschenkst du wie gesagt Leistung bei Spielen, die bereits das PL früher vollbekommen. Bei dir dürfte es aber nicht so tragisch sein, da du ja 400 statt 350W zulässt. Meine GPU kommt nicht über 70 Grad, meine Lüftersteuerung ist entsprechend so eingestellt. Bei längerer Volllast liegen 69 (manchmal für paar Sekunden 70) Grad an. FPS müsste ich nachreichen. Grundsätzlich nutze ich keine vordefinierten Ingame-Grafik-Presets. Ich mach mir immer individuelle Grafikstellungen, hier lassen sich meistens noch ein paar fps rausholen, ohne dass man einen Unterschied in der Optik bemerkt.
  3. Ich muss da jetzt nochmal was ergänzen: Noch sinnvoller ist es, sich die Mühe zu machen, die Afterburner-Kurve komplett von vorne bis hinten anzupassen (und nicht bei 0,8v oder 0,9v zu cappen - also eine Dynamik wie die Stock-Kurve zu haben, nur natürlich mit mehr MHz pro Spannungspunkt). Ist aber Arbeit, da ein OC bei 0,8v viel besser funktioniert als bei 0,9 oder gar über 1,0v. Konkret: bei 0,8v sind bei mir +195 MHz kein Problem, um noch stabil zu laufen. Bei über 1,0V reden wir von unter 100 MHz, klar. Ich habe mir jetzt mal die Mühe gemacht, und die Kurve komplett von vorne bis hinten angepasst und durchgetestet. Wieso? Weil es Spiele gibt, konkret Assassins Creed Walhalla (und auch die Vorgänger), die mein PL von 350W selbst mit der Maximalspannung von 1,081v nicht vollbekommen. Bei dieser Spannung kann ich meine Karte mit bis zu 2085 MHz betreiben (+75 MHz gegenüber stock, mehr macht keinen Sinn zu testen, da selbst solche Spiele nicht dauerhaft 1,081v anlegen, sondern meistens um die 1,044v mit 2025-2055 MHz). Was bringt es? Statt 1800 MHz@0,8v liegen bei Valhalla nun wie gesagt in meinem Fall bis zu 2085 MHz (meist 2025-2055 MHz) an. Das entspricht einem Mehrtakt von bis zu 14% gegenüber den fixen 1800 MHz. In Mehr-fps bleiben im Schnitt noch leicht über 7% davon hängen, was statt 68 fps im internen Benchmark bei 4k (das Spiel ist mega heftig) 73 fps bedeutet - das ist natürlich ordentlich / lohnt sich. Ja, alle die ein einfaches OC gemacht haben, haben diesen Vorteil bereits auch schon. Aber: bei heftigen Spielen, wo bereits bei 0,8v das PL von 350W vollläuft (z.B. A Plagues Tale), ändert sich halt nichts. Hier liegen nach wie vor 1800 MHz an (+195 MHz gegenüber stock). Wer jetzt nur ein einfaches OC von z.B. 75 MHz gemacht hat, hat bei weitem keine 1800 MHz bei 0,8v anliegen... (zumindest nicht mit dem 350W-Standard-PL). Und bei den Spielen (die allermeisten übrigens) die irgendwo dazwischen liegen (Hitman 2 oder Ghost Recon Breakpoint z.B. 0,8X-0,9Xv), liegen eben noch bis zu 1920 MHz in meinem Fall an. Spulenfiepen ist für mich übrigens kein Thema, erstens habe ich eine sehr leise Karte erwischt (hab drei MSI Ventus getestet, alle ähnlich leise und deutlich leiser als die FE - wie hier schonmal irgendwann gesagt) und zweitens steht mein Desktop in einem großen Wohnzimmer (ist aber parallel auch mit einem Monitor / Nebenraum über lange Kabel verbunden). Außer einem leisen Rauschen der Noctua A12 höre ich (und nur wenn es ruhig ist) von meinem Desktop nichts (anders sähe es aus, wenn noch die Standardlüfter auf der 3090 drauf wären... ;)). edit: Man kann das ja auch gut kombinieren. Man lässt die Kurve so (bei geringen Spannungen mehr OC als bei hohen) und cappt aber bei 0,9v. Leistungstechnisch ein guter Kompromiss (rund 1900 MHz bei guten Chips) und weniger Spulenfiepen & Co. (wenn das stört) als mit 0,9x-1,0xv / 19XX - 20XX MHz.
  4. Ein Undervolting - also weniger Spannung / Verbrauch - bringt auf jeden Fall bei jeder Karte was. Aber man muss es halt auch machen... Ansonsten kann man natürlich nochmal eine weitere Karte bestellen, und wenn es mit der nicht besser ist, eben wieder zurückschicken. Und ja, ein anderes / potenteres Netzteil könnte tatsächlich ebenfalls für Linderung sorgen. Das hat aber weniger was damit zu tun, für wieviel Watt es ausgelegt ist. Hochwertige, die zumeist nicht günstig sind, liefern hier i.d.R. die besten Ergebnisse.
  5. macOS korrigiert mir bisschen viel ("Limited" statt "limiter"), muss das glaube ich mal ausstellen 🙄
  6. edit: @einsteinchen war schneller Ja, das wird es sein. Das Geräusch entsteht durch die Vibration von elektrischen Komponenten auf deiner Grafikkarte. Bei manchen ist es etwas unangenehmer als bei anderen. Im Prinzip haben es aber alle. Was kannst du dagegen tun? Stromverbrauch / Spannung der Grafikkarte reduzieren (Undervolting). Viele Grafikkarten kannst du mit weniger Stromverbrauch / Spannung betreiben, ohne dass die Leistung verlierst. Lese dich in das Thema Undervolting ein. Am besten machst du das mit "MSI Afterburber". Aber auch Tools wie die von Asus funktionieren, ja. Was du außerdem dagegen tun kannst, ist ein fps limiter zu benutzen. Oftmals werden in Menüs nämlich deutlich mehr fps erreicht, das führt auch nochmal zu einem schrilleren Ton. Wenn du z.B. mit maximal 144 fps spielst, solltest du auch dort cappen (am besten bei 141 wenn du G-Sync nutzt). Cappen kannst du mit dem Riva Tool, was bei der Afterburner Installation mitinstalliert wird. Das bringt auch ein OSD mit. Bitte googeln, wenn du nicht weißt, was das bedeutet. Mit dem Limiter hast du dann also auch in Menüs usw. nicht mehr als 141 fps und somit weniger Spulenfiepen.
  7. Ja, also ich suche und fixiere ja seit Jahren / mehreren GPU-Generation stets den bessere SweetSpot als der des Auslieferungszustandes. Mit einigermaßen guten Chips sind immer deutlich mehr Takt bei gleicher Spannung drinnen. Was ich aber lieber mache, ist eben Spannung wegzunehmen (also Undervolting), und ungefähr an die Taktraten von stock zu kommen. Meine 3090 betreibe ich mit 280-350W (also ordentlich weniger Abwärme) bei 1800 MHz @0,8v. Das entspricht einem OC von exakt 195 MHz. Speicher läuft auf +250 MHz, weil es mehr nicht mehr großartig bei der 3090 bringt. Übrigens wären 1800 MHz bei 0,8v für Turing gigantisch gewesen, bei Ampere klappt es viel öfter. Für die meisten sind wohl eher z.B. 1900 MHz @0,875-0,925v interessant. Das sind 5% mehr Takt als 1800 MHz, allerdings skaliert das in Games nicht, sprich das sind nur zwischen 1-3% mehr fps je nach Game. Ich nehme dann lieber die 1800 MHz bei 0,8v und spare mir Spulenfiepen und noch mehr Abwärme. Gerade in einem kleinen ITX Gehäuse macht das aber auch Sinn. Mit 1800 in allen Games bin ich leistungstechnisch noch sehr gut aufgestellt und das in einem kleinen Gehäuse, und dank den beiden Noctua A12 auf der 3090 auch noch extrem leise. Ich behaupte mein ITX-System ist leiser als viele andere ATX-Systeme (ohne merklich weniger Leistung in Games - nicht Benchmarks - zu haben).
  8. Ich glaube auch nicht, dass ich im Endeffekt zu AMD wechseln werde. Sie mögen effizienter und günstiger sein, ich glaube jedoch, dass die 3090 unterm Strich die Leistungskrone aufbehalten wird. Und ich glaube auch, dass DLSS besser als Super Resolution sein wird. Auf der anderen Seite haben sie bei den CPUs sehr überzeugt und Ihre Versprechen gehalten. Wir werden sehen.
  9. Einen 5900x hab ich die Woche ergattern können. Die 6900XT werde ich dann auch noch bestellen und sie gegen meine 3090 benchmarken. Am spannendsten wird jedoch sein, ob Super Resolution wirklich gegen DLSS anstinken kann. Für mich auch noch interessant bzw. Voraussetzung, um ggf. überhaupt die 3090 durch die 6900XT zu ersetzen ist, ob VRR meines TVs im allgemeinen reichen wird, ob um einen ordentlichen Sync mit der 6900XT hinzubekommen. Da ich den Desktop nicht nur am Monitor, sondern auch am TV nutze, ist mir das wichtig. Und mein LG65C9 OLED TV aus 20190 hat leider "nur" VRR im Allgemeinen sowie G-Sync-Kompatiblität, kein AMD FreeSync 2 (letzteres hat nur das Modell aus 2020 und mein Monitor).
  10. Hab die FE übrigens erhalten und auch bereits wieder zurückgeschickt. Das Rasseln/Spulenfiepen war viel zu heftig, zudem sind die Lüfter zwar ziemlich gut, aber der Unterschied zum Deshroud-Mod (zwei Noctua A12x25 montieren) ist noch zu groß. Das ist einfach zu attraktiv bzw. nochmal deutlich leiser. Aber das war eigentlich klar. Als drittes ist noch zu sagen, dass die FE relativ viel Spannung (deutlich mehr als die MSI Ventus) brauchte, um den gewünschten Takt zu erreichen (das kann aber eine schlechte Chip-Güte und kein generelles Problem der FE gewesen sein). Insofern hab ich mir wieder ein Custom Modell gekauft bzw. wieder eine MSI Ventus. Die reicht mir völlig, da ich aus verschiedenen Gründen mehr als 350W als PL eh nicht haben möchte. Hatte zwischenzeitlich übrigens drei MSI Ventus getestet, haben sich alle relativ ähnlich verhalten, aber natürlich kann man am Ende doch einen Sieger kühren, auch wenn der Abstand gering ausfällt. Mehr Details kann man hier nachlesen. Alle drei MSI Ventus sind übrigens relativ leise bezüglich Rasseln/Spulenfiepen. Das trifft aber natürlich auch auf einige andere Custom-Modelle zu. Die FE scheint unterm Strich öfters lauter zu "schreien" im Gegensatz zu vielen Custom-Modellen - so meine bisherige Beobachtung in den ganzen Foren (zumal ich immerhin wie gesagt drei MSI Ventus getestet habe und alle deutlich leiser als die FE waren). Im Dezember werde ich mir wie hier glaube ich schonmal gesagt die Radeon 6900XT bestellen, mindestens solange nutze ich die 3090 MSI Ventus. Eine davon wird es dann für die nächsten Jahre werden. Ob man die 6900XT zum einigermaßen Normalpreis im Dezember (oder in Q1/2021...) nach Hause bekommt, steht natürlich auch noch in den Sternen... (beim 5900x könnte das wohl ähnlich problematisch werden...).
  11. Nein, nicht bei der 3080/3090. Hintergrund ist, dass diese Karten relativ schnell das Powerlimit erreichen. Wie du gemerkt hast, bekommst du ja auch mehr Takt, sobald du das Powerlimit erhöhst. Konkretes Beispiel: bei der 2080 Ti konnte ich in JEDEM Spiel in 4k mindestens 0,9v erreichen, bevor das PL erreicht wurde. Mit der 3090 ist das PL schon bereits bei 0,75-0,88v (je nach Modell) in manchen Spielen erreicht. Da hilft nur das Anheben des (eh schon hohen) PLs oder einer deutlich besseren Kühlung (weniger Temperatur = weniger Watt = mehr Boost). Wobei: lassen wir das "oder" weg, denn beides zusammen macht schon Sinn.
  12. Ich werde (hoffentlich) diese Woche einen 5900X bestellen. Und als GPU werde ich im Dezember das Top Modell 6900XT bestellen. Dieses werde ich dann mit meiner 3090 vergleichen und schauen, welche ich am Ende behalte.
  13. Robman

    Biete Zwei modifizierte U3 Kühler

    Updates: - ein Kühler ist verkauft. Also nur noch einer da - ich gehe von 120 auf 90 Euro runter.
  14. Meine kommt Montag/Dienstag (gestern bestellt). Ja, absolut, das Konzept der FE ist diesmal richtig cool. Fast schon zu schade, um Deshrouding oder WaKü durchzuführen... Werde sie auch erstmal so testen.
  15. Hab gerade eine 3090 FE zum Normalpreis über Notebooksbilliger bekommen! Dort sind gerade 3070 + 3090 verfügbar!
  16. Ja, mein 4k/120Hz-TV hat HDMI 2.1 (2019er Modell). Und bei meinem 4k/120Hz-Monitor läuft es über DP 1.4.
  17. Sooo, hab meine MSI 3090 wieder verkauft, natürlich ohne Verlust! Ausführlicher Test hat Spaß gemacht und mich nix gekostet. 😎 
Werde mir aber wieder eine 3090 kaufen (😬), und zwar als Neuware über einen Shop. Hintergründe: durch die angekündigte Performance der AMD GPUs fallen bereits jetzt schon die Preise der Nvidia GPUs, wenn ich länger gewartet hätte, hätte ich "Miese" gemacht so spare ich nun Geld (eben mindestens 100 Euro, weil Standardpreis ja 1499 und nicht 1600 Euro - für letztere Summe hatte ich ja die MSI gekauft). Außerdem sind meine neue CPU sowie mein Netzteil eh noch nicht da... habe es nicht eilig (die 3090 schonmal ausführlich getestet zu haben war aber natürlich gut) ich möchte nochmal eine andere 3090 ausprobieren, um alleine schon wegen der Chipgüte etwas mehr Erfahrung zu haben. Werde mir wohl die schicke Founders Edition (FE) kaufen, die sich auch mehr Energie als die MSI Ventus genehmigen darf (auch wenn ich die +50W wohl nicht nutzen werde) zudem hol ich mir im Dezember dann noch die dickste AMD GPU (6900XT) und vergleiche sie mit der 3090 FE. Eine davon wird anschließend verkauft (ich denke die 6900XT, da ich denke, dass die 3090 im unabhängigen Vergleich die schnellste bleiben wird, und da reden wir noch nicht von DLSS 2.0 und Raytracing). Ich möchte einfach für mein 4k@120-Gaming-Setup das Schnellste was es gibt (also nicht unbedingt das beste Preisleistungsverhältnis). Ob 16 oder 24 GB VRAM ist mir egal, nur die 10 GB der 3070/3080 gehen für mich gar nicht
  18. Kurz: Sie hat denke ich keine Ahnung. Man sieht es ja auch im offiziellen Konfiguration eindeutig, dass die 300 Hz Displays kein G-Sync haben.
  19. Hier mal ein Vergleichstest zwischen zwei Games, die extrem gut aufzeigen, wie stark sich der Verbrauch (und somit auch Takt) unterscheiden kann. Die meisten Games liegen dazwischen. A Plagues Tale: 0,775-0,831v Assassins Creed Odyssey: 0,969 - 1,044v (stock um die 1900-2000 MHz) Beide erreichen so die 350W Limit meiner MSI GeForce RTX 3090 Ventus 3X 24G OC. Natürlich (nur) bei 2160p. Bei 1440p und ähnlich sind die Verbrauchswerte um einiges geringer (und somit der Takt höher). Mein Afterburner-Profil cappt aber bei 0,9v, wo mein Chip glücklicherweise stabile 1950 MHz schafft. Mehr als 0,9v gilt es aufgrund des Spulenfiepens zu vermeiden (ich kenne keine Karte die über 0,9v leise genug für mich ist - ich habe aber auch stets kleine sowie luftige, also nicht geräuschdämmende, ITX-Gehäuse). So verschenke ich keine Leistung in wenig fordernden Games wie Odyssey. Und bei fordernden Games ändert sich ja nichts. So komme ich einfach fast in jedem Game ins TDP-Limit, egal wie fordernd es ist. Odyssey verbraucht bei fixen 0,9v „nur“ ca. 320W bei 7X Grad). Je nach Game schwanke ich also mit meinem AB-Profil zwischen 0,775 - 0,9v bzw. 1740-1950 MHz bzw. 320-350W. Da die meistens Games wohl dazwischen liegen, liegen meist mehr als 1800 MHz an. Und die mehr als 0,9v würden eh nur bei wenig fordernden Games was bringen. Ich könnte dann statt 1950 MHz um die 2000 MHz fahren, das wäre der einzige Vorteil. Bei den heftigsten Games würde sich eh nichts ändern, da die 350W TDP Limit ja bereits bei rund 0,8v erreicht werden. Das TDP Limit von 350W zu erhöhen, macht natürlich bei einem ITX Gehäuse und ohne Wasserkühlung keinen Sinn. Ich bin so sehr zufrieden. 1740 - 1950 MHz je nach Game finde ich für ITX und Luft echt super. Wer in allen Games konstant 1950 MHz und mehr mit einer 3080/3090 haben möchte, muss dann eben für entsprechende Kühlung sorgen (und das Limit per evtl. verfügbaren vBIOS erhöhen oder eine Karte kaufen, die eben 450-500W zulässt).
  20. Habe gestern Abend eine MSI GeForce RTX 3090 Ventus 3X 24G OC für "nur" 1600 Euro bei Ebay-Kleinanzeigen gekauft und abgeholt. Es war die günstige auf ganz Ebay-Kleinanzeigen (Inserat bereits deaktiviert) und bei mir um die Ecke... Glück gehabt… wenn man mal (auch genau von dieser Karte) die Preise überall anschaut, so war das eigentlich ein „Schnäppchen“. Es ist noch eine einzige drinnen, für 1900 Euro, also 18,8% mehr. Mehr kriegt man wohl nicht für. Daher werde ich sie wohl behalten... 😁 Falls eine 3080 mit 20 GB Vram kommt, natürlich irgendwie Irsinn. Aber man weiß es eben halt auch nicht. Und was man hat, hat man. Zumal ich jetzt sofort - und es ist immerhin Herbst / Winter - spielen kann. Ich montiere auf der GPU zwei Noctua A12 (leiser und kühler zugleich). Gehäuse wird ein Cooler Master NR200 (derzeit neu nicht zu bekommen). CPU wird wohl ein AMD Zen3 8 oder 12 Kerner. Aber mal schauen. Er muss halt genauso gut performen (auch frame times usw.) wie ein 10900k. Als SSD hab ich ne Samsung 2 TB NVME geordert, derzeit bei Cyberport ziemlich günstig (und lieferbar).
  21. Nein. G-Sync ist (ganz grob vereinfacht gesagt) dafür da, dass du ein flüssigeres Spielerlebnis hast, wenn du in fps gesehen unterhalb der Hz unterwegs bist. Am besten liest du dich mal im Netz allgemein über G-Sync ein. Dann wirst du auch auf das keyword "tearing" stoßen. Kannst ja auch nach 144 Hz vs 300 Hz googeln. Bei 144 mit G-Sync und auch bei 300 ohne G-Sync gibt es Vor- und Nachteile. Am besten wäre 300 mit G-Sync. Aber Geschmäcker und auch das Empfinden kann varrieren.
  22. Das 300 Hz würde ich dir nur empfehlen, wenn du wert auf möglichst viele fps und absoluter Smoothness legst. Du musst natürlich keine 300 fps erreichen, um die Vorteile auszuspielen, aber eben einiges. Normal lieber 300 statt 144 Hz, allerdings gibt es das 300 Hz nicht mit G-Sync. Und gerade bei dir, wo du ja scheinbar wert auf Grafik legst (du hast an UHD gedacht), macht G-Sync Sinn, da geringe fps. Ich würde auf jeden Fall das 144 Hz nehmen. Macht auch mehr Sinn, wenn du mit maximal 144 fps spielst (was meistens der Fall sein wird). Wenn du nicht Tearing empfindlich bist, und du deine Spiele so einstellst, dass du immer sehr viele fps hast, dann nimm das 300 Hz. Rein vom Panel ist das wohl auch etwas kontrastreicher sowie heller. Ich persönlich möchte auf nichts von beiden verzichten, weder auf UHD, noch auf 120 oder mehr Hz. Das leisten aber nur die neuen Ampere-GPUs bei den Desktops (zumindest wenn es um Triple-A-Games geht).
  23. Hi, - wenn UHD dann mit 120 Hz, wie es z.B. bei Monitoren oder TVs schon fast üblich ist. Das Razer Blade Pro 17 ist meines Wissens nach derzeit leider das einzige Notebook mit UHD + 120 Hz. - das UHD vom Area 51m ist darüber hinaus insgesamt langsam (grey to grey usw.), also damit meine ich nicht mal die 60 Hz - du kannst im Nvidia Treiber DSR aktivieren (4,00 mit 0% Smoothness), dann hast du gerendertes UHD. Du hast dann zwar nur ein FHD-Display, die Games sehen auf diesem dann trotzdem sehr viel besser aus als wenn du nur mit FHD-Auflösung ingame spielst - sofern dir Grafik wichtig ist, was bisschen den Eindruck macht, dann nehme das 144 Hz FHD + G-Sync (und aktiviere hier DSR). Wenn dich ein lahmes Display (Gosting) nicht stört, und du überwiegend tolle Optik willst (dann dürfen dich auch 30-60 fps nicht stören) dann nehm das UHD Grüße
  24. Robman

    Biete Zwei modifizierte U3 Kühler

    Alle die einen wollen haben scheinbar schon einen... Jeder der noch keinen hat: ich kann den nur wärmstens empfehlen... Zwei Hinweise noch: statt 150 Euro pro Stück kann ich 120 Euro pro Stück anbieten natürlich kann auch nur einer erworben werden. Es müssen nicht beide gekauft werden
  25. Ja, dann wird der TV mal endlich richtig ausgenutzt. Ich werde ein 20m HDMI 2.1 Kabel verlegen, damit ich diesen Desktop mit dem TV im Wohnzimmer, aber auch mit dem Monitor am Schreibtisch nutzen kann. Ich habe mir den neuen LG 27GN950-B gekauft, 27 Zoll mit 4k und 144 Hz. Auch ein sehr gutes Bild für ein IPS-Panel. Am Schreibtisch/Monitor zock ich nämlich lieber die Maus-/Tastatur-Spiele, auch wenn ich ein Couchmaster habe.
×
×
  • Neu erstellen...

Wichtige Information

Bitte beachten Sie folgende Informationen: Nutzungsbedingungen, Datenschutzerklärung und Community-Regeln. Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.