Zum Inhalt springen

[Tagebuch] nVidia GTX 680 TRI-SLI


webmi

Empfohlene Beiträge

Genau das ist DS ^^ Denn eigentlich dürfte er das garnicht anzeigen. Aber er schafft es dieses auf die Bildfläche der Nativen Auflösung runter zu brechen.

Und es sieht einfach nur besser aus ^^ Wenn du selber deine Native Auflösung gegen die DS vergleichst.

Am einfachsten erklärt sich das mit AA. Dort werden Teile vom Bild (Kanten) meisten intern auf einer höheren Auflösung berechnet um dann wieder ins Bild skalliert zu werden.

DS macht das ebend mit dem gesamten Bild.

Ein Link mit ein paar Vergleichsbildern die eine Slider Technik nutzen ^^

Downsampling: Bessere Grafik in jedem Spiel, auch in Crysis 2 - Update mit Geforce-Treiber 295.51

ps mein Asus macht 1,5 fache 1080p mit, aber ich nutze ihn auch nur auf 1,25 fache meist ^^

Bearbeitet von Raskasar
Link zu diesem Kommentar
Auf anderen Seiten teilen

Erstmal Defaults Idle:

post-720-14366122139049_thumb.jpg

Dann ein lecker Video zum warm werden

Turbo Power Target/Limit - automatisch mehr Takt, je nach Temp :-)

EVGA Precision via AIR Display (WLan) auf dem iPad2. OC am iPad - live und on-demand

post-720-14366122143074_thumb.jpg

System: i7 2600K @ 4.5GHz, 8GB DDR3 RAM, 120GB M4 SSD, 2x GTX680 2GB (Turbo @ 1.2GHz)

post-720-14366122147848_thumb.png

3D Mark 11 720p:

post-720-14366122149145_thumb.jpg

post-720-14366122150191_thumb.jpg

Der Takt steht der Temp beim OC jetzt noch näher. Das macht es evtl schwerer beim OC von Kepler, zumindest am Grenzbereich.

Je Kühler, desto mehr Turbo ist drin. Gleichbleibende Taktraten sind von der Temp äbhangig. Fixer Wert quasi nicht möglich.

Meine beiden Elefanten schweben jetzt aber immer über den magischen 1.2GHz. Mit 1.230MHz/1.215MHz liege ich für den ersten Tag ganz gut, toller Wert

Dadurch, dass beim Multi-GPU meistens GPU1 wärmer ist als GPU2, bedingt durch die Belüftung, erhalte ich keine völlig identischen Turbo OC.

Default Takt LAST:

post-720-14366122152515_thumb.png

OC Takt LAST:

post-720-14366122151445_thumb.png

Das Ganze macht 8 FPS in Furmark und einen spürbaren Schub @ BF3

post-720-14366122155054_thumb.jpg

Furmark nimmt sich das Limit vom PowerTarget, deshalb hier keine 1.2 auf der Uhr...

post-720-14366122146771_thumb.png

post-720-14366122153756_thumb.jpg

Link zu diesem Kommentar
Auf anderen Seiten teilen

  • 1 Monat später...

Der 2600K läuft seit heute auf 4.7Ghz, was natürlich eine paar Runs 3DMark zur Folge hatte

Hier meine Ergebnisse mit dem neuen 301.42 WHQL:

3DMark 06 = P34153

post-720-14366122387574_thumb.jpg

3DMark Vantage = P46396

post-720-14366122386393_thumb.jpg

3DMark 11 = P16321

post-720-14366122385129_thumb.jpg

Fazit:

Ein Vergleichsrun 3DMark 11 mit dem alten Setting zeigt,dass der neue Nvidia Treiber etwas weniger Punkte bringt.

So konnte ich mit 301.42 WHQL (@4.5Ghz) nur einen Score von P16053 erzielen. Im Vergleich zum Ergenis mit 301.10 WHQL (P16254), eher ernüchternd.

Immernoch gibt es wenige Anwendungen, mit denen ich die Beiden wirklich auf 99% Last treiben kann. Selbst die Benchmarks liefen mit ca. 80% Last, max. 96% Last.

Bei BF3 stelle ich auch fest, dass trotz OC am Limit bei maxed Settings (Ultra etc.) manchmal FPS Dropps auftreten. Auch hier bewegen wir uns im Lastbereich von 50%-60%.

Die FPS droppen dann von 120 vSync auf 93 FPS, also nicht ganz so wild lol. Dennoch frage ich mich, warum die FPS droppen, obwohl noch ca. 50% Rechenkapazität zur Verfügung steht?

Ich hoffe dies kann durch künftige Treiberverbesserungen etwas optimiert werden.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Können diese Dropps vielleicht mit dem VSnyc zusammenhängen?

Durch Kepler gibt es ja jetzt das adaptive VSnyc, das VSnyc dann abstellt, wenn man die Framerate von 60

bzw. 120 fps oder welche Rate auch immer nicht mehr halten kann.

Vielleicht ist da einfach noch ein wenig Optimierungsbedarf, was dieses Umswitschen angeht...

Was passiert den wenn du den vertikalen Strahlenrücklauf deaktivierst?

Gruß

Emrob

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich habe auch grad an vSync gedacht, immerhin rechnen die Beiden locker 200+ FPS bei BF3 ohne Sync. Ich werds wohl testen müssen. Danke für die Idee.

Aber bei 50% Last auf beiden GPUs sollte er die 120 doch halten können, indem er einfach mehr Gas gibt?! Das verstehe ich noch nicht.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich könnte jetzt äußerst verdrehte Spekulationen äußern

und irgendeinen Zusammenhang zwischen Taktänderung und dem adaptiven VSync äußern,

aber das ist - denke ich - SEHR weit hergeholt.

Die GTX 680 kann ja nur alle 100 Millisekunden ihren Takt ändern, wenn ich mich nicht irre.

Vielleicht reicht das für das VSync zu denken, dass die Grafikkarte die fps nicht mehr halten (zumindestens im

momentanen Takt) und deswegen dann diese Einbrüche.

Aber wie gesagt, dass ist eigtl. mehr an den Haaren herbei gezogen...

Ich denke, dass daran ist einfach der Treiber schuld...

Gruß

Emrob

Link zu diesem Kommentar
Auf anderen Seiten teilen

Aber wenn du VSync abstellst, müsste die Last dann nicht automatisch hoch gehen auf 99% oder was in der Gegend?

Das Teil sollte dann doch einfach soviel rechen, wie es kann, oder nicht?

Gruß

Emrob

Link zu diesem Kommentar
Auf anderen Seiten teilen

Das denke ich eben auch, konnte dieses Verhalten nur bei dem aktuellen Test ohne vSync ausmachen. Bei Metro2033 z.B., gibt er alles.

Irgendwo drückt ihm der Schuh einwenig, bei BF3.

Liegt schätze ich einfach an der Treiberoptimierung bzw. dem SLI Profil für BF3.

Auch bei 720p, der geringsten Auflösung, die ich wählen kann, bei niedrigen Details, könnte er mehr machen.

Das Ganze ist also nicht vRam limitiert, weder Bandbreite noch Größe, da 720p bei 0 Details wohl keine Aufgabe darstellen.

Jedenfalls hat BF3 offenbar ein 200FPS Limit, denn hier ist immer Schluss ^^

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich habe wirklich ein empfindliches Auge, ich sehe jedes Pixel und erkenne den Unterschied zwischen den Detailsettings von BF3, aber Mikroruckler habe ich noch keine gesehen.

Gut, die treten wohl eh erst unter 30 FPS auf, aber trotzdem, nichts. Auch bei meinem alten 5870CFX konnte ich wirklich schwer welche ausmachen.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Dass war ja immer das Hauptproblem nach der Einführung von SLI ... Technischen hatten sies, die ersten Jahre, nicht hinbekommen ohne Mikroruckler. Leider hab ich damit selbst keine Erfahrung da 2 Grafikkarten oder auch die Dual-GPU's nicht in meiner Preisklasse liegen ;) Hoffe das ändert sich jetzt dann nach dem Studium :D

Hast Crysis 2 mit DX11 und HighRes-Textures getestet? Sieht bestimmt auch bombe aus

Link zu diesem Kommentar
Auf anderen Seiten teilen

... sogar mit Downsampling bei 2600x1500 Pixel incl AA Filter etc. Sieht echt lecker aus :-)

Bei 3D habe ich mir von Crysis aber mehr erwartet, da gibts weit Besseres.

So ein SLI, CFX ist nicht billig, das stimmt, die Aliens btw wohl auch nicht. Aber mit der 680er habe ich einen Glücksgriff gemacht.

Damals, mit dem 5870er CFX, waren die FPS schon auch toll, aber nach kurzer Zeit kamen Games, die das CFX in die Knie zwangen.

Hier, mit dem 680er SLI, habe ich sicher länger meine Freude, da die Leistung wirklich überirdisch ist.

Selbst in 3D, kann ich alles auf MAX spielen und habe reichlich, wirklich reichlichst Luft nach oben für die Zukunft.

Ich meine, die 1000€ halten sicher länger durch, als die 1000€ für das 5870er CFX damals, leistungstechnisch.

Link zu diesem Kommentar
Auf anderen Seiten teilen

ok, weitere Tests zeigen Folgendes:

TEST1:

Spiel: Tera Online

Auflösung 1920x1080

Detail Treiber: Standard

Detail Spiel: MAX

Takt: 960MHz von möglichen 1.2Ghz

vRAM: ca. 800MB

Frames: x FPS je Situation

Last: ca. 50%

TEST2:

Spiel: Tera Online

Auflösung 2889x1620

Detail Treiber: MAX (32xAA etc, wirklich alle Regler am Anschlag)

Detail Spiel: MAX

Takt: 1050MHz von möglichen 1.2Ghz

vRAM: ca. 800MB

Frames: x FPS je Situation

Last: ca. 70%

Nicht ein Frame weniger als mit geringerer Auflösung und Detailstufe im Treiber. Dafür aber nicht ein Frame mehr, bei normalen Settings.

Das kann an der Grafikengine (Uneal 3 bei Tera) liegen oder am Treiber bzw an der Harmonie zwischen Beidem.

Ich möchte aber nicht 50% Last ich möchte max Performance, immer und in jeder Situation, der soll mir 120 vSync halten und Gas geben!!!

Da stimmt was am Treiber noch nicht, ganz und garnicht! 120 vSync sind kein Problem für die zwei 680er, er machts aber nicht...

Der rechnet mir in einer normalen Detailstufe bei einer Situation x eine Frameanzahl x und braucht dafür eine Last x.

Bei absolutem Maximum an Detail und Auflösung in der gleichen Situation x bekomme ich die gleiche Framezahl x, nur erhalte ich hier mehr Last.

Egal was ich mache, ich bekomme in einem normalen Setting nicht mehr Frames als mit einer total übertriebenen 2880er Auflösung mit 32xfachem AA.

Vsync Einstellungen ändern garnichts, ob mit oder ohne oder adaptiv.

Die 680er SLI Benchmarks im Internet zeigen bei BF3 zb. den Mittelwert von ca. 130 FPS.

Was sie nicht zeigen, was mir Aida64 aber im Display der G19 zeigt, dass die Chips hier noch lange - lange nicht am Ende sind.

Der Treiber reizt die Power einfach noch nicht aus, der fährt gemütlich im 4. Gang und denkt, warum schneller?

Ich habe aber einen Lambo gekauft und möchte den auch ausfahren!

Klar, die Performance liegt immernoch weit über allem anderen, reicht bei Weitem für alles auf dem Markt, bei mehr als tollen FPS - da wäre aber noch weit mehr drin!

Ich hoffe inständig, dass kommende Treiber in den 6. Gang schalten und draufdrücken bis die Chips Gummi auf dem Asphalt lassen

Edit1: TEST3:Ich tip aber stark auf die SLI Profile, denn Metro2033 in 3D kennt dieses Problem nicht. Mit vSync habe ich 60 FPS bei einer Last von 70%, absolut stabil, keine FPS Dropps, höchstens das kurzzeitige Ansteigen der Last. Ohne vSync habe ich ca. 100FPS und 99% Last. Alles so, wie es sein soll!

Edit2: TEST4: Bei deaktiviertem SLI habe ich ohne vSync endlich die gewünschten 99% Last / x FPS bei Tera. Mit Vsync macht er im 2880er 32xAA Setting bei 60 FPS schluss und braucht entsprechend weniger Rechenaufwand. (60FPS, habs endlich geschaft, dass DS auf 60FPS @ 2880 zu konfigurieren :-))

Final komme ich zur Vermutung, dass es für Tera als auch für andere Anwendungen wohl noch keine optimierten SLI Profile für das 680er SLI gibt.

Link zu diesem Kommentar
Auf anderen Seiten teilen

HRHR! was fürn Prozi betreibts du gleich nochmal in deiner Schüssel?

Werd mir, sobald verfügbar, die neue Serie vom Be-Quiet Dark Power Pro, die 10er in 1000W bestellen. Hoffe es ist Ende der Woche auch verfügbar, ist total frisch das Ding^^

Ich glaube mein 750er macht mit der 4.7GHz CPU und dem SLI OC + dem Rest langsam schlapp. 250 Tacken für ein NT sind auch ne Hausnummer... :-(

ps: Mit dem letzten NV Update haben die wohl auch am 3D gepatched. Richtig geil, das Ghosting ist weg, in allen getesten Games.

Absolut goil, endlich 100% Tiefe ohne Ghost, bin super happy. Diablo 3 macht mit 90% ohne den störenden Ghost nochmal so viel Spaß.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Aktuell noch der i7 2600k @4GHz. Du hast aber vermutlich auch einen Vision 2 Monitor oder?

Mal schauen ob auch bei Vision 1 eine Verbesserung vorhanden ist.

Ich brauchte einfach ne schnelle Graka, meine GTX 580 kommt bei Skyrim inkl unzähliger Grafikmods langsam nicht mehr mit, habe teilwese nur noch 40FPS.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Es geht mir bei Skyrim auch nicht ums 3D. Es sieht schon in 2D mit den ganzen Mods tierisch genial aus ;)

EDIT: Karte wurde schon losgeschickt :) Ich denke aber sie braucht noch ein paar Tage. Vermute mal das sie aus England rüber geschifft wird.

Bearbeitet von Malaak78
Link zu diesem Kommentar
Auf anderen Seiten teilen

  • 2 Wochen später...

Grad mal mit so einem lustigen Strommessgerät den Verbrauch von meinem Baby gemessen.

Unter Prime/Furmark zieht das System, wie in der Sig, ganze 650 Watt (Brutto) aus der Dose.

Idle etwa 110 Watt (Brutto). BF3 schlägt im Durchschnitt mit 480 Watt (Brutto) zu.

Bei dem 750W 80 Plus Gold NT dürften da etwa 520 Watt (Netto) am System ankommen im WorstCase Prime/Furmark Szenario.

Ich dachte echt, es wären mehr lol

---------- Beitrag hinzugefügt um 18:31 ---------- Ursprünglicher Beitrag wurde erstellt um 18:14 ----------

Mit dem neuen Treiber, 304.48 Beta, geht im 11er nochmal ein bisschen mehr.

Setup: i7 @ 4.5, 680 @ 1.2

16493 PKT

LINK

Dabei nimmt er etwa 500 Watt (Brutto)

"Your PC is performing properly."

---------- Beitrag hinzugefügt um 18:53 ---------- Ursprünglicher Beitrag wurde erstellt um 18:31 ----------

Update:

16799 Pkt!!!!

CPU @ 4.7 und die GPUs nochmal um ein paar Herzchens höher

LINK

---------- Beitrag hinzugefügt um 20:34 ---------- Ursprünglicher Beitrag wurde erstellt um 18:53 ----------

selber gpu speed, cpu stock

15373 PKT

LINK

---------- Beitrag hinzugefügt um 20:41 ---------- Ursprünglicher Beitrag wurde erstellt um 20:34 ----------

cpu stock, gpus stock

14465 PKT

LINK

Das System zieht jetzt auch nur noch 540 Watt (Brutto) @ Prime/Furmark aus der Steckdose

Link zu diesem Kommentar
Auf anderen Seiten teilen

@webmi ,

was für eine grakas sin bei dir verbaut ?

wie laut ist das Netzteil ?

750W 80 Plus/gold oder sonst was ist mehr als laut bei 650Wat verbrauch

ich empfehle dir ein Netzteil von 1KW+ dann lief sie mit 60% seine leistung dadurch erzeugt weniger wärme an seine Komponenten und Lüftern verhalten bleibt angemessen ,

NT hat mich nicht interessiert als ist Crossfire aus 6970 gebaut habe weil die gpus waren laut das von NT war nix zu hören , als habe ich DCII eingebaut dann NT hat mich richtig gestört auch mit seine ~35dB ,

mittlerweile werde mich auch aufs SLI bei Notebook verzichten das ganze ist mir zu laut , Crossfire geht noch..... ,

Link zu diesem Kommentar
Auf anderen Seiten teilen

Dein Kommentar

Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.
Hinweis: Dein Beitrag muss vom Moderator freigeschaltet werden, bevor er sichtbar wird.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Nur 75 Emojis sind erlaubt.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...

Wichtige Information

Bitte beachten Sie folgende Informationen: Nutzungsbedingungen, Datenschutzerklärung und Community-Regeln. Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.