Zum Inhalt springen

Nvidia Geforce RTX 2080 (Ti) Test und Benchmark


einsteinchen

Empfohlene Beiträge

Hallo Zusammen,

nach den ersten verfruehten Benchmarks gibt es jetzt richtige Test und ausfuehrliche Benchmarks zu dem neuen Top Modell von Nvidia. Hier ein Link zu dem Artikel der GameStar

https://www.gamestar.de/artikel/nvidia-geforce-rtx-2080-ti,3334847.html

Im Vergleich zu einer GTX 1080 Ti ist die RTX 2080 im Schnitt 6% schneller und eine RTX 2080 Ti ganze 24%. Je nach Spiel und getesteter Aufloesung ist es entsprechen mehr oder weniger.

Da ich momentan eine GTX 1080 verbaut habe werde nicht nicht upgraden. Wie sieht es bei euch aus, werdet ihr ein Upgrade machen?

 

Bildschirmfoto 2018-09-19 um 15.10.38.png

Link zu diesem Kommentar
Auf anderen Seiten teilen

Hallo einsteinchen!

Ich will demnächst auch Aufrüsten, wenn ich nun garnicht auf´s Geld achten müsste würde ich aber zuschlagen! So werd ich warten bis die RTX rauskommen und mir dann zwei gebrauchte GeForce GTX 1080 Ti holen und auf die nächste Generation warten, oder zumindest so lange bis Raytracing auch mit 4K Auflösung und fps 60 min. in BF 5 evtl. BF 6 oder BF 7 läuft. ? Der schritt von Nvidia mit Raytracing ist aber auf jedenfall super und wird uns bestimmt in Zukunft bei Games begleiten.

Gruß Toffel

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

Hallo Christoffel, hast du aktuell eine GTX Titan X (Maxwell) oder eine Titan X (Pascal) verbaut? Wenn es die Pascal Variante ist wuerde ich dir zu keinem Upgrade raten, da die Titan X fast so schnell ist wie eine 1080 Ti. Ist es die Maxwell Version musst du wissen ob sich die 1080 Ti lohnt wenn du eigentlich was schnelleres willst. SLI Systeme funktionieren in bei aktuellen Spielen immer oefter schlecht da die Treiber nicht gut optimiert werden. Eine schnelle Karte ist zurzeit besser als zwei langsamere in SLI. Auch hat man mit einem SLI Probleme, das Spiele Probleme machen. Es ist aktuell alles andere als Nutzerfreundlich.

Ich bin aber auch gespannt wo es mit dem gemischten rendern von Videospielen hingeht. Teile der Grafik mit Raytracing zu berechnen ist interessant, aber leider macht Nvidia wieder einen Alleingang. Ich muesste auch selbst Spiele mit Raytracing Support spielen um zu entscheiden ob das wirkich so einen swo großen Unteschied macht. Nvidia Physx wurd auch als der heilige Gral verkauft, oder andere Techniken wie Nvidia Hairworks (siehe Witcher 3). Das sah auch alles nett aus, hat sich in der Form aber nicht großartig durchgesetzt. Aber mal abwarten, ich lasse mich gerne ueberraschen :)

Link zu diesem Kommentar
Auf anderen Seiten teilen

Hallo einsteinchen,

leider die Maxwell, wobei sie mir die letzten jahre wirklich immer super dienste geleistet hat und auch heute noch kein Abfallprodukt wäre. SLI kenne ich vom Spezl der weniger aufs geld achten muss, der wird sich auch 2 x 2080 TI holen und da werd ich an meine zwei 1080 TI kommen. Das stimmt mit den problemchen! Bei großer Auflösung kann es was bringen (evtl. 3% - 5%), muss aber nicht. Je nach dem was er haben will werde ich zuschlagen.?

Ich bin auch sehr gespannt wie sich das hybrid Raytracing macht! Alles was ich sehen kann von Nvidia, PCGH, PC Games etc. sieht gut aus. Wenn ich daran denke das es wirklich super laufen sollte, sprich du wirklich durch Fenster etc. Spiegelungen Gegner sehen kannst könnte es sogar ein Gamechanger in Titeln wie BF sein und evtl. auch probleme mit sich bringen. Denke da an Server Settings wo Raytracing abgestellt werden müsste damit es fair bleibt... Aber ich vermute das es bis dahin noch viel zeit bedarf, alles was ich über Raytracing mir durgelesen habe sagt mir, du benötigst verflucht viel POWER um "wirklich" jeden Lichtstrahl zu berechnen und eine sehr Gute spiegelung zu erzeugen in Echtzeit. Es kann natürlich auch anders kommen und die 2080 Karten sind schon sehr weit vorne. Du hast es gesagt, lassen wir uns überraschen!

Link zu diesem Kommentar
Auf anderen Seiten teilen

@einsteinchen:

vor 2 Stunden schrieb einsteinchen:

SLI Systeme funktionieren in bei aktuellen Spielen immer öfter schlecht da die Treiber nicht gut optimiert werden.

Es liegt nicht ausschließlich an schlecht optimierten Treibern, sondern viel mehr daran, dass diverse Spiele-Entwickler in ihren Produkten erst gar nicht eine SLI-Unterstützung implementieren und demzufolge auch NVidia kein, zum betreffenden Spiel passendes SLI-Spiele/Treiberprofil anbietet. Dazu kommt noch, dass sämtliche Microsoft-Titel, die sowohl auf der XBox, als auch auf dem PC erhältlich sind(Play Anywhere) und/oder auf der Windows Universal Platform basieren, grundsätzlich kein Multi GPU-Betrieb ermöglichen.
Darum sollte man sich zum jetzigen Zeitpunkt wirklich gut überlegen, ob die Anschaffung eines Multi GPU-Systems wirklich noch Sinn macht, da der Trend anscheinend momentan in die Richtung Einzel GPU-Nutzung geht. Es bleibt allerdings abzuwarten, was in der Zukunft passiert. Wenn ich die Infos aus dem Netz richtig interpretiere, wird SLI wohl langfristig abgelöst werden durch NVLink, ebenfalls eine Multi GPU-Technologie, die bisher jedoch eher im Profi-Bereich(Quadro GPU) Anwendung findet und eine höhere Bandbreite bietet. Sollte allerdings die Nutzung von NVLink wie bei SLI von der Auslegung/Programmierung eines Spieles/einer Software UND von speziellen Treiber-Profilen abhängig sein, wird der Endkunde, also wir, wieder genau vor den selben Problemen stehen, wie aktuell bei SLI.

Gruß

Jörg

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 2 Stunden schrieb Christoffel:

SLI kenne ich vom Spezl der weniger aufs geld achten muss, der wird sich auch 2 x 2080 TI holen und da werd ich an meine zwei 1080 TI kommen.

Das kannst du dann druchaus machen, die zwei 1080Ti sollen ja nicht schlecht werden :D

vor 2 Stunden schrieb Christoffel:

alles was ich über Raytracing mir durgelesen habe sagt mir, du benötigst verflucht viel POWER um "wirklich" jeden Lichtstrahl zu berechnen und eine sehr Gute spiegelung zu erzeugen in Echtzeit.

Raytracing ist nicht gleich Raytracing, da es hier verschiedene Ansaetze gibt. Deshlab ist meine folgende Verallgemeinerung nur teil-korrekt, trotzdem versuche ich es mal simpel zu erklaeren.

Wie man schon vermutet werden hier Lichtstrahlen verfolgt, entwecher von Lichquellen aus (was in der Praxis nicht gemacht wird) oder ausgehen von einem virtuellen Augenpunkt / Kamera. Wenn ein Lichtstrahl auf ein Objekt trifft wird es den physikalischen Eigenschaften des Objekts entsprechend reflektiert. An perfekt spiegelnden Oberflaechen, wie einem Spiele, wird der Lichtstrahl unveraendert gespiegelt. Raue oberflaechen veraendern die Farbe und Intensitaet des Lichtstrahls. Das heißt an jeder Oberflaeche muss jeder Lichtstrahl neu berechnet werden und die Eigenschaft der Oberfaeche beachter werden, damit machen also die Anzahl der Lichtstrahlen und die Menge an (unterschiedlichen) Objekten in einer Szene das Problem schwerer.

Um das Problem einfacher zu machen kann man also die Anzahl der Lichtstrahlen verringern, die Anzahl an Reflektionen pro Lichtstrahl begrenzen (bei 4 Reflektionen wird der Stahl nach dem vierten Objekt nicht mehr berechnet) oder die Anzahl der Objekte reduzieren. Die ersten beiden Moeglichkeiten fuehren zu einem verrauschten Bild mit schwarzen Punkten. Es ist dort schwarz wo kein Lichtstraht aufgetroffen ist. Siehe das folgende Bild dazu.

687474703a2f2f63646e2e6c776a676c2e6f72672f7475746f7269616c732f3134313230385f676c736c5f636f6d707574652f76617269616e63652e6a7067.thumb.jpg.7e4f89f809a99cb1dc8c44f4d25126a3.jpg

Das alles fuehrt dazu, dass hohe Aufloesungen (entspricht in etwas "sehr vielen Lichtstrahlen") und komplexe Szenen (also alle aktuellen Spiele), wie du richtig sagt, unglaublich schwer zu berechenen sind. Spezielle Hardware, die Nvidia wohl gebaut hat (soweit ich weiß ist noch nicht genau bekannt was die Rautracing cores anders machen) kann hier helfen.

Es gibt schon einige Projekt die u.a. alte Spiele wie Quake mit Raytracing nachgeruestet haben und auch teilweise fluessig laufen. Eins davon habe ich unten als Video verlinkt. Dort sind auch links zu dem Spiel selbst, wenn ihr es testen wollt. Auch fallen hier die Tricks auf (reduzierung der Anzahl der Lichtstrahlen), denn Teile des Bilds sind verrauscht.

 

Bearbeitet von einsteinchen
Typos
  • Like 1
  • Danke 3
Link zu diesem Kommentar
Auf anderen Seiten teilen

Auf das Raytracing in Spielen bin ich auch schon gespannt, da wird man dann erfahren ob es den Aufpreis wert ist.

 

@Jörg Hier mal ein Test bezüglich dem NVLink. 

@Christoffel Es gibt auch Spiele, da laufen 2 Karten schlechter als eine. 

Bearbeitet von JetLaw
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 1 Stunde schrieb Jörg:

@einsteinchen:

Es liegt nicht ausschließlich an schlecht optimierten Treibern, sondern viel mehr daran, dass diverse Spiele-Entwickler in ihren Produkten erst gar nicht eine SLI-Unterstützung implementieren und demzufolge auch NVidia kein, zum betreffenden Spiel passendes SLI-Spiele/Treiberprofil anbietet. Dazu kommt noch, dass sämtliche Microsoft-Titel, die sowohl auf der XBox, als auch auf dem PC erhältlich sind(Play Anywhere) und/oder auf der Windows Universal Platform basieren, grundsätzlich kein Multi GPU-Betrieb ermöglichen.
Darum sollte man sich zum jetzigen Zeitpunkt wirklich gut überlegen, ob die Anschaffung eines Multi GPU-Systems wirklich noch Sinn macht, da der Trend anscheinend momentan in die Richtung Einzel GPU-Nutzung geht. Es bleibt allerdings abzuwarten, was in der Zukunft passiert. Wenn ich die Infos aus dem Netz richtig interpretiere, wird SLI wohl langfristig abgelöst werden durch NVLink, ebenfalls eine Multi GPU-Technologie, die bisher jedoch eher im Profi-Bereich(Quadro GPU) Anwendung findet und eine höhere Bandbreite bietet. Sollte allerdings die Nutzung von NVLink wie bei SLI von der Auslegung/Programmierung eines Spieles/einer Software UND von speziellen Treiber-Profilen abhängig sein, wird der Endkunde, also wir, wieder genau vor den selben Problemen stehen, wie aktuell bei SLI.

Gruß

Jörg

ist halt auch nur in gewisser weiße eine Schwanzverlängerung...? die aber nicht wirklich was bringt das ist klar. Es bringen eben 30 FPS mehr nix, wenn die Frametime dadurch absolut nur dem weißen Keramik im Bad zu zuführen sind. ?

vor 41 Minuten schrieb einsteinchen:

Das kannst du dann druchaus machen, die zwei 1080Ti sollen ja nicht schlecht werden :D

Raytracing ist nicht gleich Raytracing, da es hier verschiedene Ansaetze gibt. Deshlab ist meine folgende Verallgemeinerung nur teil-korrekt, trotzdem versuche ich es mal simpel zu erklaeren.

Wie man schon vermutet werden hier Lichtstrahlen verfolgt, entwecher von Lichquellen aus (was in der Praxis nicht gemacht wird) oder ausgehen von einem virtuellen Augenpunkt / Kamera. Wenn ein Lichtstrahl auf ein Objekt trifft wird es den physikalischen Eigenschaften des Objekts entsprechend reflektiert. An perfekt spiegelnden Oberflaechen, wie einem Spiele, wird der Lichtstrahl unveraendert gespiegelt. Raue oberflaechen veraendern die Farbe und Intensitaet des Lichtstrahls. Das heißt an jeder Oberflaeche muss jeder Lichtstrahl neu berechnet werden und die Eigenschaft der Oberfaeche beachter werden, damit machen also die Anzahl der Lichtstrahlen und die Menge an (unterschiedlichen) Objekten in einer Szene das Problem schwerer.

Um das Problem einfacher zu machen kann man also die Anzahl der Lichtstrahlen verringern, die Anzahl an Reflektionen pro Lichtstrahl begrenzen (bei 4 Reflektionen wird der Stahl nach dem vierten Objekt nicht mehr berechnet) oder die Anzahl der Objekte reduzieren. Die ersten beiden Moeglichkeiten fuehrt zu einem verrauschten Bild mit schwarzen Punkten. Es ist dort schwar wo kein Lichtstraht aufgetroffen ist. Siehe das folgende Bild dazu.

687474703a2f2f63646e2e6c776a676c2e6f72672f7475746f7269616c732f3134313230385f676c736c5f636f6d707574652f76617269616e63652e6a7067.thumb.jpg.7e4f89f809a99cb1dc8c44f4d25126a3.jpg

Das alles fuehrt dazu, dass hohe Aufloesungen (entspricht in etwas "sehr vielen Lichtpunkten") und komplexe Zenen (also alle aktuellen Spiele), wie du richtig sagt, unglaublich schwer zu berechenen sind. Spezielle Hardware, die Nvidia wohl gebaut hat (soweit ich weiß ist noch nicht genau bekannt was die Rautracing cores anders machen) kann hier helfen.

Es gibt schon einige Projekt die u.a. alte Spiele wie Quake mit Raytracing nachgeruestet haben und auch teilweise fluessig laufen. Eins davon habe ich unten als Video verlinkt. Dort sind auch links zu dem Spiel selbst wenn ihr es testen wollt. Auch fallen hier die Tricks auf (reduzierung der Anzahl der Lichtstrahlen), denn teile des Bilds sind verrauscht.

 

Wow, wusste garnicht das sowas gemacht wurde, aber man sieht eben auch wie Leistungshungrig Raytracing ist und genau das verstärkt meine Meinung bzgl. wann Raytracing in spielen wirklich einzug erhält. Sollte aber die HW und SW irgendwann weit genug sein um Spiegelungen/Raytracing gut in Spiele zu implementieren, wird es ein Absoluter Gamechanger werden.

vor 28 Minuten schrieb JetLaw:

@Christoffel Es gibt auch Spiele, da laufen 2 Karten schlechter als eine. 

Ja klar hast vollkommend recht, mehr als die welche besser laufen ?

Bearbeitet von Christoffel
Link zu diesem Kommentar
Auf anderen Seiten teilen

@JetLaw:

Danke für den Link, werde ich mir anschauen :) .

@Christoffel:

vor 20 Minuten schrieb Christoffel:

ist halt auch nur in gewisser weiße eine Schwanzverlängerung...? die aber nicht wirklich was bringt das ist klar. Es bringen eben 30 FPS mehr nix, wenn die Frametime dadurch absolut nur dem weißen Keramik im Bad zu zuführen sind. ?

Das sehe ich etwas anders, ich betrachte eine Multi GPU-Unterstützung keinesfalls nur als eine Schwanzverlängerung. Richtig implementiert und voll unterstützt können 2 GPU's in einem Verbund für einen sehr deutlichen Leistungs/Performance-Schub sorgen. Entwicklerstudios wie z.B. Crytek haben in der Vergangenheit eindrucksvoll bewiesen, dass in Zusammenarbeit mit NVidia(miteinander reden und sich gemeinsam an einen Tisch setzen kann manchmal sehr viel bringen :) !!) und ihrer entwickelten Cry-Engine eine wirklich sehr gute Multi GPU-Unterstützung durchaus machbar bzw. realisierbar ist. Und bezüglich der Frametime : Ich verstehe unter der Frametime die Zeit, die das System benötigt, um die Spielschleife eines Spieles XY ein einziges mal zu durchlaufen. Diese Zeit kann natürlich von Durchlauf zu Durchlauf in einem gewissen Rahmen variieren, jenachdem was und wieviel grafisch gerade generiert werden muss und natürlich auch wieviel die CPU berechnen muss. Um so geringer die einzelnen Frametimes sind, umso öfter kann die Spielschleife pro Sekunde durchlaufen werden und demzufolge habe ich mehr Bilder pro Sekunde. Von daher müssten ja bei mehr fps auch die Frametimes kürzer sein. Sollte ich das falsch sehen, bitte ich um Korrektur bzw. Berichtigung :) .

Gruß

Jörg

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor einer Stunde schrieb Jörg:

Entwicklerstudios wie z.B. Crytek haben in der Vergangenheit eindrucksvoll bewiesen, dass in Zusammenarbeit mit NVidia(miteinander reden und sich gemeinsam an einen Tisch setzen kann manchmal sehr viel bringen :) !!) und ihrer entwickelten Cry-Engine eine wirklich sehr gute Multi GPU-Unterstützung durchaus machbar bzw. realisierbar ist. 

Dann frage ich mich warum Hunt Showdown (Ultra Perfomance fordernd) kein SLI supportet? Ist die Cry-Engine und Developer ist Crytek..SLI wird gefühlt von Update zu Update immer schlechter. Leider. War sehr lange SLI begeistert, aber beim nächsten Upgrade fliegt es aus dem Rechner.

Bei der Performance der neuen GPUs hatte ich ein wenig mehr erwartet für den Preis. Die 2080 TI wird wohl in den meisten Spielen unter Realbedingungen mein 1080 SLI System locker übertrumpfen aber im Vergleich zum Leistungsplus zur 1080 TI wäre mehr drin gewesen. Leider kommt AMD nicht hinterher um den Markt ein wenig zu beleben im High End Segment.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 3 Stunden schrieb Jörg:

@JetLaw:

Danke für den Link, werde ich mir anschauen :) .

@Christoffel:

Das sehe ich etwas anders, ich betrachte eine Multi GPU-Unterstützung keinesfalls nur als eine Schwanzverlängerung. Richtig implementiert und voll unterstützt können 2 GPU's in einem Verbund für einen sehr deutlichen Leistungs/Performance-Schub sorgen. Entwicklerstudios wie z.B. Crytek haben in der Vergangenheit eindrucksvoll bewiesen, dass in Zusammenarbeit mit NVidia(miteinander reden und sich gemeinsam an einen Tisch setzen kann manchmal sehr viel bringen :) !!) und ihrer entwickelten Cry-Engine eine wirklich sehr gute Multi GPU-Unterstützung durchaus machbar bzw. realisierbar ist. Und bezüglich der Frametime : Ich verstehe unter der Frametime die Zeit, die das System benötigt, um die Spielschleife eines Spieles XY ein einziges mal zu durchlaufen. Diese Zeit kann natürlich von Durchlauf zu Durchlauf in einem gewissen Rahmen variieren, jenachdem was und wieviel grafisch gerade generiert werden muss und natürlich auch wieviel die CPU berechnen muss. Um so geringer die einzelnen Frametimes sind, umso öfter kann die Spielschleife pro Sekunde durchlaufen werden und demzufolge habe ich mehr Bilder pro Sekunde. Von daher müssten ja bei mehr fps auch die Frametimes kürzer sein. Sollte ich das falsch sehen, bitte ich um Korrektur bzw. Berichtigung :) .

Gruß

Jörg

Soweit ich da belesen bin und ich hoffe bring es sachlich einigermaßen korrekt rüber...

Wenn ich in einer sec. 60 Bilder habe mit SLI, wobei die ersten 20 gleich sind und die nächsten 15 auch wieder gleich sind und zum Ende 5 mal 5 unterschieliche bilder dran gehängt werden wo hingegen ohne SLI zwar nur 40 Bilder habe aber jedes 4 bild ein neues ist und eben gut abgestimmt/verteilt ist, ist das ein viel flüssigeres spielgefühl/Ergebnis. Aber das soll angeblich durch SLIhu also nvlink durch die grösere Bandbreite wesentlich besser werden.

Link zu diesem Kommentar
Auf anderen Seiten teilen

@Steph:

vor 2 Stunden schrieb Steph:

Dann frage ich mich warum Hunt Showdown (Ultra Perfomance fordernd) kein SLI supportet? Ist die Cry-Engine und Developer ist Crytek..

Gut, darauf kann ich natürlich keine konkrete Antwort geben, das kann technische Gründe haben, es kann aber natürlich auch sein, dass Crytek das aus Kostengründen bei dem genannten Spiel einfach vernachlässigt hat. Von der Cry-Engine gibt es auch verschiedene Revisionen. Bei Crysis 3 kam die Cry-Engine 3 zum Einsatz, und gerade dieses Spiel profitiert unwahrscheinlich stark von 2 Grafikkarten im Verbund.

 

vor 2 Stunden schrieb Steph:

SLI wird gefühlt von Update zu Update immer schlechter.

Ja das stimmt, viele Spiele unterstützen es auch einfach nicht mehr, ist ein großes Problem und gleichzeitig sehr schade. Und genau aus diesem Grund erhoffe ich mir für die Zukunft eine Technologie, die nicht abhängig von einer Programmierung ist oder von der Bereitstellung eines Spiele-Profiles. Es muss nahezu selbstverständlich sein, dass JEDE Software und JEDES Spiel automatisch alle zur Verfügung stehenden Hardware-Ressourcen in einem System nutzt, ohne dass sich ein Software- bzw. Spieleentwickler extra darum gesondert kümmern muss. Hierzu sind insbesondere die Entwickler von Betriebssystemen gefragt UND die Hersteller der jeweiligen Hardware-Komponenten. Wie das bei NVLink ausschauen wird, muss man abwarten.

@Christoffel:

Ich kann nicht so ganz nachvollziehen, was du jetzt genau damit meinst :) . Ist aber nicht weiter tragisch, wir müssen einfach abwarten, was die Zukunft bringt.

Gruß

Jörg

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 5 Minuten schrieb Jörg:

 

@Christoffel:

Ich kann nicht so ganz nachvollziehen, was du jetzt genau damit meinst :) . Ist aber nicht weiter tragisch, wir müssen einfach abwarten, was die Zukunft bringt.

Gruß

Jörg

Hier wird das besser erläutert?

https://www.computerbase.de/forum/threads/fps-frametimes-unterschiede.1575013/

 

Gruß Christoph 

Link zu diesem Kommentar
Auf anderen Seiten teilen

@JetLaw:

Hallo, ich habe mir nun mal deinen verlinkten Bericht bez. NVLink durchgelesen. Leider scheint es auch bei dieser Technologie so zu sein, dass man sich wieder abhängig macht von der Auslegung/Programmierung einer Software/eines Spieles für NVLink. Dies würde bedeuten, dass man sich auch in der Zukunft leider nicht zu 100% darauf verlassen kann, dass das gewünschte Spiel ALLE zur Verfügung stehenden GPU's in einem System in vollem Umfang nutzt. Um ehrlich zu sein, hatte ich auch nichts anderes erwartet, es war damit zu rechnen, dass man, wie ja bereits schon bei SLI, wieder nur halbe Sachen macht. Es nützen mir die besten, theoretischen Leistungsdaten und allergrößten Bandbreiten nichts, wenn die Wunschanwendung/das Wunschspiel seitens des Entwicklers nicht dafür ausgelegt wurde. Somit werden wir Endkunden wieder genau vor den gleichen Problemen stehen wie momentan in der Gegenwart. Schade :( .

Gruß

Jörg

Link zu diesem Kommentar
Auf anderen Seiten teilen

  • 1 Monat später...

Es gibt erste Raytracing-Benchmarks mit den neuen RTX Grafikkarten und Battlefield 5. Dafür gibt es jetzt die DXR Option im Grafikmenü, welche mit "ohne", "Niedrig" und "Ultra" getestet wurde. In der Kampagne kommt die RTX 2080 auf durchschnittlich 152 FPS, mit DXR auf "Niedrig" sind es 65 FPS und auf "Ultra" nur noch 45 FPS. Und das bei nur 1080p Auflösung! Das ist ein Leistungseinbruch von mehr als die Hälfte, bzw. mehr als zwei drittel!

Hier ist der ganze Artikel von Computerbase.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Dein Kommentar

Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.
Hinweis: Dein Beitrag muss vom Moderator freigeschaltet werden, bevor er sichtbar wird.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Nur 75 Emojis sind erlaubt.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...

Wichtige Information

Bitte beachten Sie folgende Informationen: Nutzungsbedingungen, Datenschutzerklärung und Community-Regeln. Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.