Zum Inhalt springen

Nvidia Geforce RTX 30XX Ampere


ed1991

Empfohlene Beiträge

Ja die 2000 Turing Generation war für die Katz bei desktop PCs :) die 3090 passt wohl nicht in den aga und in den r11.

gut das ich vor release noch alles verkauft hab...

bei Notebooks bin ich mal gespannt...

Bearbeitet von Nuestra
Link zu diesem Kommentar
Auf anderen Seiten teilen

HardwareLuxx hat bereits einige Daten zusammengetragen und paar Informationen ergänzt (noch nicht alles fest). -Quelle-

3000er.jpg.042d38a7fd64c52da9d39bac52238cfa.jpg

edit, auf der Nvidia-Seite sind die Karten inkl. technischer Daten mittlerweile auch online.

nv.thumb.jpg.36bfd78d8c4df6ebb4edf9478f5d6c1d.jpg

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 36 Minuten schrieb pitha1337:

Hehe habe auch mein komplettes Equipment verkauft. RTX 2080 Ti für 900€ zum Glück noch. Die ist ja jetzt so gut wie nichts mehr wert 😂

Ist ja witzig  meine 2080 ti ging auch für 900 weg :) ich tendiere aber jetzt eher 3080 Preis Leistung...

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich hatte die Preise in einem zweiten Post bereits ergänzt. Nvidia hat's jetzt offiziell auf ihrer Homepage, wenn auch leicht korrigiert^^ (HWLuxx). Schwierig zu sagen, ob man überhaupt eine der FE bekommt. Ich gehe davon aus, dass es diesmal noch ne ganze Ecke schlimmer sein wird als mit der 20er Serie. So gehypte wie das Thema gerade wird....

Noch eine Anmerkung zur Leistung. Scheinbar bezieht Nvidia in ihrer Präsentation den Leistungsvergleich auf die reine RT-Leistung zu den alten Karten. Wie auch immer, bin schon auf die ersten Benchmarks gespannt. Einige Boardpartner haben auch schon ihre Custom-Designs geleakt. 

Link zu diesem Kommentar
Auf anderen Seiten teilen

@Nuestra:

vor 12 Stunden schrieb Nuestra:

die 3090 passt wohl nicht in den aga....

Falls das tatsächlich so sein sollte gibt es dann ja vielleicht in naher Zukunft endlich mal eine neue AGA-Revision, wird ja auch langsam mal Zeit.

Gruß

Jörg

Link zu diesem Kommentar
Auf anderen Seiten teilen

@Jörg:

Hoffentlich dann auch mit einem Zukunftssicheren Port. Ich denke nicht, dass es was bringt weiter nur vier Lanes über den AGA Port nach draußen zu führen. Die Verlustleistung wird immer größer, je stärker die GPUs werden. 

Mindestens acht Lanes (wie bei SLI) ist meiner Meinung nach ein muss. 16 wären natürlich noch schöner, aber das muss der Prozessor erstmal hergeben. 

Link zu diesem Kommentar
Auf anderen Seiten teilen

@MrUniverse:

vor 15 Minuten schrieb MrUniverse:

Hoffentlich dann auch mit einem Zukunftssicheren Port. Ich denke nicht, dass es was bringt weiter nur vier Lanes über den AGA Port nach draußen zu führen. Die Verlustleistung wird immer größer, je stärker die GPUs werden. 

Da denke ich genau so, es müsste eine komplette Neuerung sein, die schon im Notebook beginnt. Es wird, wie du ja auch schon sagst, relativ wenig nützen, wenn man nur den Steck-Schlitz passend macht, evtl. das Netzteil samt Anschluss-Stecker anpasst und alles andere so lässt. Dann sollten die den AGA besser komplett einstampfen wenn die nicht vorhaben, etwas gescheites und vernünftiges zu machen, was auch wirklich etwas bringt.

Gruß

Jörg

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 2 Stunden schrieb MrUniverse:

@Jörg:

Hoffentlich dann auch mit einem Zukunftssicheren Port. Ich denke nicht, dass es was bringt weiter nur vier Lanes über den AGA Port nach draußen zu führen. Die Verlustleistung wird immer größer, je stärker die GPUs werden. 

Mindestens acht Lanes (wie bei SLI) ist meiner Meinung nach ein muss. 16 wären natürlich noch schöner, aber das muss der Prozessor erstmal hergeben. 

Ich hab mit dem aga gute Erfahrungen gemacht (bis zu 35000 gpu points bei fire strike mit der 2080ti) Desto höher die Auflösung desto weniger die Verlustleistung meinen Kollegen vom notebookreview. Sie geben den Verlust bei uwqhd mit ca 5% an. Ich werde mal die 3080fe im aga testen und sende dann benchmarks...

 

 

Bearbeitet von Nuestra
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 2 Stunden schrieb Nuestra:

Sie geben den Verlust bei uwqhd mit ca 5% an.

Je nach Spiel/Anwendung stimmt das. Wir haben dazu auch schon einen Thread.

vor 4 Stunden schrieb Jörg:

Da denke ich genau so, es müsste eine komplette Neuerung sein, die schon im Notebook beginnt.

Am einfachsten wäre hier PCIe 4.0. Wenn die Notebooks und der AGA PCIe 4.0 könnten, wäre mit dem gleichen x4 Kabel eine Verdopplung der Übertragungsrate möglich. Man könnten den Anschluss und das Kabel prinzipiell gleich lassen, vorausgesetzt die erfüllen die Voraussetzungen für PCIe 4.0. Ein neues Notebook muss dafür aber auf jeden Fall her.

Jetzt aber zurück zu den Ampere Karten :)

Was man darüber bis jetzt gehört hat gefällt mir! Meine GTX 1080 ist noch vollkommen ausreichend für das was ich Spiele. Sollte Cyberpunkt damit nicht mehr gut laufen überlege ich ein Upgrade auf Ampere, aber erst nach Tests. Vorbestellen werde ich vermutlich nichts, auch wenn mir die vermutete Knappheit etwas den Spaß am Zocken verzögern könnte :D Ich bin gespannt!

Bearbeitet von einsteinchen
Typos
Link zu diesem Kommentar
Auf anderen Seiten teilen

@einsteinchen:

vor 3 Stunden schrieb einsteinchen:

Am einfachsten wäre hier PCIe 4.0. Wenn die Notebooks und der AGA PCIe 4.0 könnten, wäre mit dem gleichen x4 Kabel eine Verdopplung der Übertragungsrate möglich. Man könnten den Anschluss und das Kabel prinzipiell gleich lassen, vorausgesetzt die erfüllen die Voraussetzungen für PCIe 4.0. Ein neues Notebook muss dafür aber auf jeden Fall her.

Dennoch wird es sehr wahrscheinlich wieder mal nur Wunschdenken bleiben, leider. Aber vielleicht sind die Zeiten von externen Grafiklösungen für Mobilgeräte demnächst sowieso vorbei, da die Mobil-GPU's leistungstechnisch immer mehr zu ihren Desktop-Pendants aufrücken und sich daher das ganze gar nicht mehr lohnt, wer weiß.

vor 3 Stunden schrieb einsteinchen:

Was man darüber bis jetzt gehört hat gefällt mir!

Und das was ich gesehen habe ist noch krasser :) !!! Wer über das nötige Kleingeld verfügt und vor hat, sich einen neuen High-End Desktop zuzulegen, sollte noch ein wenig Geduld mitbringen. Ich bin mal gespannt wie es mit dem R11 weiter geht in den nächsten Wochen und Monaten, da wird AW etwas machen müssen.

Gruß

Jörg

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 2 Stunden schrieb Jörg:

Aber vielleicht sind die Zeiten von externen Grafiklösungen für Mobilgeräte demnächst sowieso vorbei, da die Mobil-GPU's leistungstechnisch immer mehr zu ihren Desktop-Pendants aufrücken und sich daher das ganze gar nicht mehr lohnt, wer weiß.

Der Grund wird eher sein, daß das Streaming hochwertiger Grafik kaum noch Leistung am Ende des Kunden erfordern wird. Wenn man schaut wie sich diese Dienste hier entwickeln...

Bearbeitet von Gamer_since_1989
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 6 Stunden schrieb einsteinchen:

Am einfachsten wäre hier PCIe 4.0. Wenn die Notebooks und der AGA PCIe 4.0 könnten, wäre mit dem gleichen x4 Kabel eine Verdopplung der Übertragungsrate möglich. Man könnten den Anschluss und das Kabel prinzipiell gleich lassen, vorausgesetzt die erfüllen die Voraussetzungen für PCIe 4.0. Ein neues Notebook muss dafür aber auf jeden Fall her.

vor 3 Stunden schrieb Jörg:

Dennoch wird es sehr wahrscheinlich wieder mal nur Wunschdenken bleiben, leider. Aber vielleicht sind die Zeiten von externen Grafiklösungen für Mobilgeräte demnächst sowieso vorbei, da die Mobil-GPU's leistungstechnisch immer mehr zu ihren Desktop-Pendants aufrücken und sich daher das ganze gar nicht mehr lohnt, wer weiß.

Ich habe das Gefühl, dass Alienware (wie so vieles) auch das einstampfen wird. Wäre der AGA ein Thema, hätte sie zumindest eine Art Refresh oder so rausgebracht. Halt so, dass es wenigstens zur Designlinie passt. Natürlich kann diese Möglichkeit der Leistungserweiterung schon praktisch sein, aber auf die heutige Zeit gesehen, sprechen mehr Gründe dagegen als dafür.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Das Konzept hatte extrem was für dich zu den Zeiten, als es auf den Markt kam. Die 900er Karten hatten ja noch die kleinen Chips. 

Seit der 1000er Karten werden ja Desktop-Chips verbaut, die einfach etwas niedriger Takten, um Stromaufnahme und Abwärme in den Griff zu bekommen. 

Ich hab mal ein "Konzept" gesehen, was zwar nicht serienreif war, aber für mich durchaus interessanter als ein AGA. Eine externe Wasserkühlung, an die man sein Gerät mit Schnellverschlüssen anschließen konnte. So konnte die interne Grafikkarte im stationären Betrieb ihre Desktoppower entwickeln und im mobilen Betrieb die temperatureffizientere Leistung fahren.

Link zu diesem Kommentar
Auf anderen Seiten teilen

@MrUniverse:

vor 8 Stunden schrieb MrUniverse:

Ich hab mal ein "Konzept" gesehen, was zwar nicht serienreif war, aber für mich durchaus interessanter als ein AGA. Eine externe Wasserkühlung, an die man sein Gerät mit Schnellverschlüssen anschließen konnte. So konnte die interne Grafikkarte im stationären Betrieb ihre Desktoppower entwickeln und im mobilen Betrieb die temperatureffizientere Leistung fahren.

Leider weiß ich den Hersteller nicht mehr und wann das war, aber ich meine mich auch daran erinnern zu können, dass es ein Notebook gab, was man zum stationären Betrieb irgendwo dranhängen konnte. Ist aber wie gesagt schon ziemlich lange her und ich kenne die Einzelheiten nicht mehr, meine aber dass man das kaufen konnte, war also keine Studie o.Ä. .

@Silentfan:

Am 1.9.2020 um 22:24 schrieb Silentfan:

- die 3090 wäre mir zu teuer

Ja sie ist kostspielig, das stimmt, aber aus meiner Sicht absolut berechtigt. Was die NVidia-Ingenieure sich da haben einfallen lassen kann zukunftsweisend sein und das kann man nicht für kleines Geld anbieten, zumindest nicht zu diesem Zeitpunkt. Man arbeitet mit Microsoft zusammen, dass es demnächst möglich sein wird, Grafikdaten direkt von der SSD/HDD ohne Umweg in den neu entwickelten Grafikspeicher der Karte zu laden, der wirklich extrem groß ist und sicher für viele Jahre ausreichend sein wird. 24 GB sind schon eine Hausnummer und speicherplatztechnisch ein extrem großer Sprung nach vorne !! Dieser ist zudem volkommen neu konzipiert. Hinter dieser neuen High End-Karte steckt aus meiner Sicht viel mehr als eine bloße Erhöhung der fps-Werte in einem Spiel XY. Es würde mich sehr wundern wenn diese Karte in den ersten Tests, die ja schon bald gemacht werden, die Erwartungen nicht erfüllt.

Gruß

Jörg

Link zu diesem Kommentar
Auf anderen Seiten teilen

Da gebe ich dir definitiv Recht. Sie ist für mich nur zu teuer bzw. ich würde eben nicht alle Features nutzen. Und bei der 3080 wünsche ich mir (und viele andere) mehr VRAM. Ändert aber nichts daran, dass Nvidia für die Leistung gute Preise bekannt gegeben hat. Ich habe vor wenigen Wochen noch eine 2080 Ti verkauft, das war keine schlechte Entscheidung. ;)
Ich benötige jedoch aktuell keine neue Grafikkarte (benutze das A51m mit 2080) als Desktop-Ersatz. Ob ich mir nächstes Jahr das R3 mit Ampere hole ist fragwürdig. Brauche ich wahrscheinlich noch nicht, zudem hätte ich gerne 12-16 GB VRAM.

Bearbeitet von Silentfan
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 12 Minuten schrieb Silentfan:

Brauche ich wahrscheinlich noch nicht, zudem hätte ich gerne 12-16 GB VRAM.

Gerüchten zufolge sind noch weitere Karten mit anderer VRAM-Bestückung angekündigt. So auch die RTX 3070 mit 16GB (Link). Sollte sich das bewahrheiten, wird es die RTX 3080 ziemlich sicher auch mit größerer VRAM-Bestückung geben.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 4 Stunden schrieb Jörg:

@MrUniverse:

Leider weiß ich den Hersteller nicht mehr und wann das war, aber ich meine mich auch daran erinnern zu können, dass es ein Notebook gab, was man zum stationären Betrieb irgendwo dranhängen konnte. Ist aber wie gesagt schon ziemlich lange her und ich kenne die Einzelheiten nicht mehr, meine aber dass man das kaufen konnte, war also keine Studie o.Ä. 

Gruß

Jörg

Meintest du vielleicht das hier?

Link zu diesem Kommentar
Auf anderen Seiten teilen

@JetLaw:

Hallo,

ja genau das meinte ich, danke :) . Allerdings war das damals aber nicht mit dieser Hardware, das Konzept müsste eigentlich schon einige Jahre alt sein. Leider weiß ich nicht mehr wann Asus mit diesem Gerät auf den Markt kam, rein zeitgefühlsmäßig war das vor ca. 6-8 Jahren, kann aber sein dass ich da total daneben liege.

Gruß

Jörg

Link zu diesem Kommentar
Auf anderen Seiten teilen

Dein Kommentar

Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.
Hinweis: Dein Beitrag muss vom Moderator freigeschaltet werden, bevor er sichtbar wird.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Nur 75 Emojis sind erlaubt.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...

Wichtige Information

Bitte beachten Sie folgende Informationen: Nutzungsbedingungen, Datenschutzerklärung und Community-Regeln. Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.