Zum Inhalt springen

Jörg

Mitglied
  • Gesamte Inhalte

    4.518
  • Benutzer seit

  • Letzter Besuch

  • Tagessiege

    203

Alle Inhalte von Jörg

  1. @SteffRoe: Hi, lange nichts mehr von dir gehört . Naja, also die Klavierlack-Flächen am M18X R2 halten sich ja eigentlich sehr stark in Grenzen. Da wäre nur die vordere Stirnseite zu nennen, wo sich die Lautsprecher befinden(da kommt man eigentlich nie dran !!) und die Funktionsleiste bzw. Tastaturumrandung, die etwas empfindlich ist. Ich weiß ja nicht, was manche mit ihren Geräten anstellen, wer nicht gerade Fingerring-oder Eheringträger ist oder sonst irgendwie extrem grobmotorisch veranlagt, dürfte hier eigentlich keine Probleme haben . Gefällt mir auch nicht, scheint aber technisch im Moment nicht anders lösbar. @Sk0b0ld: Das schaut zwar stylish, schick und aufgeräumt aus, bin mir da aber nicht sicher, ob das so positiv ist. Die Netzteile werden beide warm im Betrieb, hinsichtlich der Temperaturen wäre es sicher besser, beide Netzteile separat bzw. getrennt aufzustellen. Vielleicht sehe ich das aber zu eng, kann sein . Ganz genau mein Reden, noch vor kurzem hatte ich hier im Forum geschrieben, dass das zu 100% noch Ärger geben wird. Durch solche Entscheidungen, die von irgendwelchen Sparfüchsen in den Chefetagen getroffen werden, holt man sich nur Probleme ins Haus, die vollkommen unnötig sind! Jetzt muss man als Kunde, wenn man sich dieses Gerät bestellt, immer Angst haben, dass man evtl. die falsche Heatpipe verbaut bekommen hat, kotzt mich an sowas !! Gruß Jörg
  2. @captn.ko: ich habe mal gegoogled, es gibt viele unterschiedliche Meinungen, unter anderem die, das man im Spiel V-Sync deaktivieren muss, damit G-Sync richtig funktionieren kann. Im Spiel wohlgemerkt, nicht jedoch in den 3D-Einstellungen des Treibers ! Nicht unbedingt. Das Problem ist, man sieht von aussen nicht, was NVidia bei der Aktivierung von G-Sync genau macht bzw. was intern über den Treiber realisiert wird. Gibt es denn von NVidia eine offizielle Stellungnahme bzw. Beschreibung, welche Einstellungen vorgenommen werden müssen, damit G-Sync perfekt arbeitet? Gruß Jörg
  3. @captn.ko: Die Frage aber ist, ob G-Sync alleine genau genug ist. Man muss ja bedenken, dass die fps und auch die einzelnen Frame-Zeiten immer gewissen Schwankungen unterliegen, von daher bin ich mir da unsicher, ob G-Sync alleine für eine 100%ige Synchronisation mit dem Sichtgerät ausreicht. Leider habe ich keine G-Sync-fähige Hardware, kann also leider nicht selber nachschauen. Wie schauen denn die Einstellungen im NVidia Control Center aus bezüglich der Aktivierung von G-Sync? Ich meine mal irgendwo gelesen zu haben, dass auch V-Sync mit inbegriffen ist. Richtig, korrekt, oder aber es schaltet auf exakt die Hälfte, nämlich 60fps herunter, kommt darauf an, was der Spieleentwickler vorgesehen und dementsprechend implementiert hat. Das sehe ich wiederum etwas anders. Gerade in Verbindung mit G-Sync ist man doch jetzt mit V-Sync deutlich flexibler, da man nun nicht mehr an eine feste Bildwiederholfrequenz, die ein Sichtgerät XY hat, gebunden ist und somit V-Sync bei allen anliegenden fps-Werten genutzt werden kann, in einem gewissen Rahmen, den die Hardware vorgibt wohlgemerkt. Gruß Jörg
  4. @captn.ko: Ok, sehr gerne . Trotzdem sind natürlich alle Angaben ohne Gewähr, vielleicht sehe ich das ganze absolut falsch. Aus meiner Sicht macht der gleichzeitige Einsatz beider Technologien Sinn bzw. ist sogar absolut notwendig, um maximal mögliche Bildqualität zu erzielen. Warum sehe ich das so? G-Sync und die dazu notwendige G-Sync-fähige Hardware sorgen dafür, dass sich die Bildwiederholfrequenz des verwendeten Sichtgerätes dynamisch an die momentan aktuell anliegenden fps in einem Spiel angleicht bzw. anpasst. G-Sync sorgt also sozusagen für "das Grobe". Die Feinarbeit übernimmt dann wiederum V-Sync, indem es den Zustand des Bildaufbaus von einem Sichtgerät überwacht und erst dann das nächste gerenderte Bild von der Grafikkarte an dieses schickt, wenn das vorangegangene Bild komplett fertig aufgebaut wurde. Wird hingegen der Bildaufbau NICHT überwacht, was bei deaktiviertem V-Sync der Fall wäre, so wird mehr oder weniger unkontrolliert ein gerendertes Bild nach dem anderen an das Sichtgerät geschickt, was dann zu dem bekannten Tearing führt bzw. führen kann je nach Spiel, Art und Geschwindigkeit der Bewegungen. Gruß Jörg
  5. Ok, dieser Beitrag kommt viel zu spät, ich weiß, muss mich korrigieren : Die gleichzeitige Verwendung von G-Sync und V-Sync macht sehr wohl Sinn, hatte da einen Denkfehler. Auf Wunsch gerne ausführlicher. Gruß Jörg
  6. @der allgäuer: Wie war es denn VOR dem neu aufsetzen? Hat da noch alles einwandfrei funktioniert oder gab es da schon die gleichen Probleme? Gruß Jörg
  7. @K54: Vor einigen Monaten gab es mal ein Update des SA, seitdem gab es bei mehreren Probleme, u.A. auch bei mir. Nach einem Neustart fingen für ca. 3 Sekunden alle Lüfter an zu laufen auf 100%, zusätzlich fror das ganze System ein inklusive Mauszeiger. Nach der Deinstallation des SA gab es keine Probleme mehr. Anscheinend hat AW immer noch nicht nachgebessert. Gruß Jörg
  8. Ich habe mal eine Frage zum Undervolting bei AW-Notebooks. Hatte ich das bei einem Kommentar hier im Forum falsch verstanden, oder ist es inzwischen tatsächlich so, dass AW in den aktuellen Command Center-Versionen eine Undervolting-Möglichkeit vorgesehen und dementsprechend integriert hat ? Gruß Jörg
  9. @captn.ko: Grundsätzlich natürlich korrekt, es gibt allerdings Situationen, wo ein volles Ausreizen der Hardware nicht unbedingt zu nennenswerten Vorteilen führt. Eine Deaktivierung von V-Sync hätte auf meinen beiden 18ern definitiv eher Nachteile als Vorteile. natürlich ist G-Sync besser, vor allen Dingen wesentlich flexibler, das sehe ich auch so, führt kein Weg dran vorbei. Richtig, ich schrieb ja bereits, dass auch ich mich für das 144Hz-Display mit G-Sync entscheiden würde . 60Hz ist veraltet, ist mir durchaus bewusst. Genau, darum mache ich jetzt Schluss hier . Gruß Jörg
  10. @captn.ko: Bin ich zum größten Teil bei dir bzw. deiner Meinung, aber Verschwenden ist wohl eher das falsche Wort, je nach System kann man einfach Leistung bzw. Ressourcen sparen. Ich sehe das, was du als Verschwendung ansiehst, eher als Vorteil. Für jemanden, der seine Grafik-Hardware bzw. sein System hinsichtlich maximal möglicher fps IMMER voll auslasten möchte(Über den Sinn kann man jetzt streiten), für den ist V-Sync nichts, das stimmt. Wem jedoch beispielsweise 60fps in Verbindung mit einem 60Hz-Display ausreichen, obwohl die Hardware deutlich mehr fps generieren könnte, so hat man mit aktiviertem V-Sync die Möglichkeit, zwei Fliegen mit einer Klappe zu schlagen, indem die maximal mögliche Leistung begrenzt wird, was u.U. gerade in einem Notebook für bessere Temperaturen sorgen kann und man gleichzeitig ein sehr flüssiges Bild bekommt. Gruß Jörg
  11. @captn.ko: Richtig, ja . Diesbezüglich ist G-Sync schon eine gute Sache, muss ich zugeben. Aber wie schaut es denn, unabhängig von fps und einer Bildwiederholfrequenz bezüglich der allgemeinen Bildqualität aus mit aktiviertem G-Sync? Ist es wesentlich besser als V-Sync? Den einzigen Vorteil, den ich bei G-Sync bis jetzt sehe ist, dass man halt flexibler ist. Mit V-Sync ist man ja immer gebunden an die festen Bildwiederholfrequenzen der verwendeten Sichtgeräte. Hat z.B. ein Display 60Hz und ein Spiel schafft aber nur max. 54fps, so ist V-Sync nutzlos bzw. es schaltet dann u.U. auf 45fps oder gar 30fps herunter, um sich wieder korrekt mit dem Display synchronisieren zu können. Hier ist G-Sync-fähige Hardware natürlich deutlich besser und flexibler. Gruß Jörg
  12. @captn.ko: Würde ich ja auch machen, auf jeden Fall . ah ok, dies würde jedoch nicht die eigentliche Ansteuerung des Displays ändern, trotzdem wäre es natürlich eine Möglichkeit, die max. fps in Spielen zu reduzieren, damit die Grafikkarte nicht immer auf Anschlag belastet wird, wenn dies nicht unbedingt notwendig ist. Es kann natürlich sein, dass Profi-Spieler auf höhere Bildwiederholfrequenzen von Displays/Monitoren im Zusammenspiel mit möglichst hohen fps angewiesen sind, um halt geringstmögliche Latenzen und Verzögerungen zu haben. Für den typischen Gelegenheitsspieler mittleren Alters, zu dem ich mich zähle, reichen aus meiner Sicht 60fps in Spielen vollkommen aus, in Verbindung mit einem 60Hz-Display und aktiviertem V-Sync hat man eine schöne, glatte bzw. flüssige Bildwiedergabe. Gruß Jörg
  13. @Pferd5612, @JetLaw: Komisch, vielleicht liegt es daran, dass ich mich nicht mit meinem Dell-Account angemeldet habe, oder ich sollte mal den Browsercache löschen. Gruß Jörg
  14. @captn.ko: Danke für dein Feedback . Ja sicher, mit G-Sync würde sich die Bildwiederholfrequenz dann anpassen. Bei manchen Spielen kann man die gewünschten fps einstellen, bei anderen jedoch nicht. Ich weiß jetzt nicht, ob NVidia über den Treiber bzw. über das jeweilige zugehörige Spieleprofil eine fps-Begrenzung ermöglicht, habe ich nie so gemacht. Bei meinen beiden 18ern sind jeweils 60Hz-Displays verbaut, von daher hatte ich bisher das Problem nicht. Mir persönlich wäre es lieber, wenn das Display schon direkt in Windows mit 60Hz angesteuert wird. Aber vielleicht hänge ich noch zu sehr in den alten Zeiten und sollte so langsam umdenken und die neueren Technologien wie z.B. G-Sync nutzen und mögen lernen . Im deutschen Konfigurator bekomme ich bei der 9900HK/RTX2080-Kombi nur das 144Hz-Display angezeigt. Davon unabhängig würde ich mich beim Kauf aber auch für dieses entscheiden, trotz des 60Hz-Themas. Es wäre halt super, wenn man auch dieses Display auf Wunsch mit 60Hz oder meinetwegen auch 72Hz betreiben könnte. Somit wäre dann eine gewisse Flexibilität gewährleistet. Gruß Jörg
  15. @Pferd5612: Danke für dein Feedback . Soviel wie ich weiß, gibt es für das Area-51M nur das 144Hz-Display zur Auswahl. Im Treiber kann man die gewünschte Bildwiederholfrequenz in der Regel in einem gewissen Rahmen frei einstellen, das stimmt, jedoch muss auch das Display bzw. der Monitor den gewählten Modus unterstützen hinsichtlich der Auflösung und der Bildwiederholfrequenz. Ist dies nicht der Fall, so würde das Display/der Monitor kein Bild anzeigen und es käme u.U. eine vom Monitor generierte Fehlermeldung wie z.B. "Falsches Eingangssignal" Gruß Jörg
  16. Ich hätte da mal eine Frage zu dem 144Hz-Display. Kann bzw. könnte das Display auch mit 60Hz betrieben werden(Grafikkartenmodus 1920x1080 60Hz) ? Für mich persönlich würden in Spielen nämlich 60Hz locker ausreichen. In Verbindung mit V-Sync könnte man dann in Spielen, wo die Graka deutlich mehr als 60fps generieren könnte, die GPU-Last senken, um dann niedrigere Temperaturen zu bekommen. Vielleicht hat das ja jemand hier bereits getestet bzw. ausprobiert . Gruß Jörg
  17. @Viathyn: Das freut mich für dich, wundert mich aber auch gleichzeitig, da ich dafür im Moment keine technische Ursache erkennen kann. Wo ist denn der Unterschied zwischen der manuellen Installation des Treibers mittels dem Start der "Setup.exe" und der Installation über Experience ? Was für eine Fehlermeldung hattest du denn bekommen, als du versucht hast, den Treiber ohne Experience zu installieren? Gruß Jörg
  18. @Viathyn: Hat es inzwischen mit Geforce Experience funktioniert? Gruß Jörg
  19. @JetLaw: Aha ok, dass wäre eine Erklärung, denn 4000 Taler ist die Hardware inzwischen einfach nicht mehr wert, obwohl ich mir das sehr wünschen würde, denn dann würde ich für mein gebrauchtes Gerät in Max-Konfi und tadellosem Zustand noch einen guten Preis bekommen beim Verkauf. Offizielle Ankäufer bieten mir für mein Gerät knappe 500 Euro, ein Witz!! Dafür brauche ich nicht verkaufen, da behalte ich das Gerät lieber bis es irgendwann den Geist aufgibt. Gruß Jörg
  20. Also ich bin ja selber stolzer Besitzer dieses Gerätes, allerdings mit einer besseren Ausstattung als hier in diesem Angebot. Um einen Aprilscherz kann es sich ja nicht handeln, darum kann ich das gerade eben nicht nachvollziehen . Kann das gar nicht glauben. Gruß Jörg
  21. @Musel: Ich denke mal am Treiber selber wird das nicht liegen, sondern eher an einem Wärmefehler, Wackelkontakt oder sonstigen Hardware-Problem. Solltest du jemanden kennen, der ein Händchen für Elektronik hat und auch geübt und erfahren ist, könnte man versuchen, die Grafikkarte vorsichtig auszubauen, die Kontakte zu reinigen und dann alles wieder richtig zusammenzubauen. Wenn das alles nicht hilft kann natürlich auch das Mainboard oder die Grafikkarte defekt sein. Es kann viele verschiedene Ursachen geben für dein Problem. Gruß Jörg
  22. @captn.ko: Das ist richtig, dennoch bleibt halt trotz richtiger Planung und Überlegung seitens des Kunden LEIDER immer noch das Risiko, dass man ab Werk die eigentlich nicht passende Heatsink versehentlich einbaut. Und das wird auch bei manchen Geräten passieren, bin ich mir ziemlich sicher. Ob sich das dann bemerkbar macht hinsichtlich der Temperaturen muss man sehen, da kann man jetzt noch nichts zu sagen. Naja, es müsste wohl eher heißen "Aus gewinnmaximierender Sicht" ?. Gruß Jörg
  23. @captn.ko: Das sind sicherlich Entscheidungen eines Krawatten-Trägers und Rotstift-Ansetzers aus der Konzern-Führungsebene, anders ist das nicht zu erklären. So nach dem Motto : Bloß nicht das etwas teurere Netzteil und die etwas bessere Heatsink-Ausführung für die billigeren Geräteausstattungen mitschicken bzw. einbauen, nur so viel wie gerade eben nötig. Gruß Jörg
  24. @captn.ko: Im Sinne von allen Käufern des neuen Gerätes hoffe ich das wirklich sehr. Eben, die Kosten für stärkere Netzteile kommen auch noch dazu. Das kann dann ganz schön ins Geld gehen. Darum sage ich nochmal, dass ich es an Dells Stelle nicht so gemacht hätte. EINE Heatsink-Version, EINE Netzteil-Kombi, Ende !! Gruß Jörg
  25. @captn.ko: Wäre wahrscheinlich nur dann ein Problem, wenn man im Werk bei einem Gerät, was die 2080RTX verbaut bekommt, versehentlich diese zweite Heatsink-Version einbaut. So etwas ist ganz schnell passiert, jeder Mensch macht Fehler, da kann sich niemand von freisprechen. Es wäre natürlich auch dann ungünstig, wenn man sich jetzt für eine kleinere Ausstattung des A51m entscheidet, dann im Werk dementsprechend korrekterweise diese Heatsink-Version einbaut in Verbindung mit der schwächeren Netzteil-Kombi, und man sich dann als Gerätebesitzer zu einem späteren Zeitpunkt dazu entscheidet, aufzurüsten. Hätte ich an Dells Stelle nicht so gemacht, denn hiermit öffnet man sich eine zusätzliche Türe für mögliche Fehlerquellen und beschränkt für uns Kunden ganz deutlich die Flexibilität. Ich hätte für ALLE möglichen Ausbaustufen EIN UND DIE GLEICHE Heatsink verwendet mit EIN UND DER GLEICHEN Netzteil-Auslegung. So kann man im Werk ärgerliche Fehler schon im Keim ersticken und biete dem Kunden für später unproblematische Aufrüstmöglichkeiten. Jetzt muss man als Kunde mit dem Wissen, dass es wohl offensichtlich verschiedeene Versionen gibt, wieder hoffen und bangen, dass man bei seinem Gerät die richtigen Teile eingebaut hat, und ich möchte jetzt schon wetten, dass es wieder ausgelieferte Geräte geben wird, wo die Temperaturen zu hoch sind und man dann feststellt, dass eine falsche Heatsink verbaut wurde. Das ist in der Vergangenheit alles schon da gewesen, anscheinend ist man diesbezüglich lernresistent . Gruß Jörg
×
×
  • Neu erstellen...

Wichtige Information

Bitte beachten Sie folgende Informationen: Nutzungsbedingungen, Datenschutzerklärung und Community-Regeln. Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.