Zum Inhalt springen

Jörg

Mitglied
  • Gesamte Inhalte

    4.395
  • Benutzer seit

  • Letzter Besuch

  • Tagessiege

    194

Alle Inhalte von Jörg

  1. @camellion: Muss ich mir im Konfigurator mal zeitnah ansehen, kann ich jetzt noch nichts zu sagen. Ein Raid0-Verbund besteht aus meiner Sicht eigentlich immer mindestens aus 2 Laufwerken, daher wüsste ich jetzt nicht, was Dell hier unter einem Raid0-Verbund versteht, wenn nur ein Laufwerk verbaut ist. Das wäre ja Quatsch mit Soße. Darum hier an dieser Stelle meine Frage an @seb1609: Welche Laufwerks-Konfiguration hast du ab Werk bestellt, welche und wie viele Laufwerke hat dein Gerät ab Werk verbaut? Wie ich bereits schrieb, handelt es sich bei einem Raid1 um eine Spiegelung. 2 Laufwerke haben dann exakt den gleichen Inhalt. Dadurch erhöht bzw. verbessert sich die Datensicherheit enorm, es erhöht jedoch keinesfalls die Lese/Schreibgeschwindigkeit oder verdoppelt eine Leserate !! Ein Raid1 bietet bzw. leistet lediglich die Geschwindigkeit eines einzelnen Laufwerks. Bei einem Raid0-Verbund verhält es sich dagegen komplett anders. Dort haben die Laufwerke, die sich im Raid0-Verbund befinden, NICHT den gleichen Inhalt, weil hier die Daten bzw. die Datenanteile auf die Laufwerke aufgeteilt werden. Dies führt dann zu einer Erhöhung des Datendurchsatzes bzw. der allgemeinen Lese/Schreibgeschwindigkeit, lässt jedoch die Datensicherheit enorm sinken, zugunsten erhöhter Geschwindigkeit bzw. Performance. Wenn im Konfigurator Raid0 steht, dann muss es sich auch um einen Raid0-Verbund handeln, Punkt. Gibt/gab es Geräte, die mit einer Raid1-Konfiguration ausgeliefert werden/wurden, obwohl im Konfigurator Raid0 steht/stand und sich der Kunde auch eben für Raid0 ganz bewusst entschieden hat, dann hat man ganz klar Scheiße gebaut, da gibt es nichts schön zu reden. Gruß Jörg
  2. @camellion: Hallo, vielen Dank für deine Kritik, aber ich glaube, du bist da ein ganz klein wenig auf dem Holzweg . Ein Raid 0, auch Stripeset genannt, bezeichnet einen Zusammenschluß bzw. einen Verbund aus mindestens 2 oder mehreren Laufwerken möglichst gleichen Fabrikates, Typs und Speicherkapazität, um eine Erhöhung des Datendurchsatzes beim Lesen und Beschreiben zu realisieren. Dabei werden die Daten auf alle Laufwerke, die sich in dem Raid0-Verbund befinden, mehr oder weniger gleichmäßig verteilt. Vorteil : Unter bestimmten Bedingungen schnellerer Datendurchsatz, die Speicherkapazität jedes einzelnen Laufwerks addiert sich. Nachteil dieser Lösung : Ist nur ein einziges Laufwerk defekt oder verliert aus irgend einem Grund die Daten, ist der komplette Raid0-Verbund kaputt und alle Daten sind verloren. Darum eignet sich ein Raid0-Verbund keinesfalls zur Speicherung wichtiger Daten, wenn man es doch tut, sind regelmäßige, wenn nicht sogar tägliche Datensicherungen absolute Pflicht !! Dell/Alienware bietet ab Werk für das Area 51M Raid0-Verbünde an, die aus 2 PCIe-M.2 SSD's bestehen. Zusätzlich wird dann, wenn der Kunde sich dafür entscheidet, noch eine HDD als reines Datenmedium verbaut. Hat sich nun ein Kunde für einen schnellen Raid0-Verbund bestehend aus 2 SSD UND einer zusätzlichen HDD entschieden(die HDD ist natürlich NICHT Bestandteil des Raid0-Verbundes !!), so gehört ein Windows selbstverständlich auf den schnellen SSD-RAID0-Verbund installiert und nicht etwa auf die deutlich langsamere HDD, es sei denn, der Kunde wünscht explizit die Installation auf der HDD. Das ist aber hier nicht der Fall, von daher kann ich da absolut kein Verständnis für aufbringen, wenn so ein Müll das Werk verlässt und zum Kunden gelangt. Solchen Müll fabrizieren Anfänger, aber keine Profis, sorry, absolutes No Go. Noch kurz meinen Senf zum Raid1 : Hier hat man z.B. 2 Laufwerke mit identischem Inhalt, es wird also gespiegelt. Vorteil : Deutlich höhere Datensicherheit. Nachteil : Speicherkapazität addiert sich nicht, Geschwindigkeit erhöht sich nicht. Sollte ich hier irgendwelche Unwahrheiten verzapft haben, bin ich für faire Kritik selbstverständlich immer offen . Gruß Jörg
  3. @seb1609: Ist doch jetzt nicht dein ernst oder? Nein, eigentlich müsste ich fragen "Ist noch nicht DEREN ernst oder ?????????" . Das kann ja wohl echt nicht wahr sein, wer macht denn bitteschön sowas? Da hätte ich das Gerät alleine schon aus Protest zurückgeschickt und wäre gleichzeitig selbstverständlich komplett vom Kaufvertrag zurückgetreten und hätte mir mein Geld wieder zurückgeben lassen. Das ist ja echt ein starkes Stück was man sich da geleistet hat, eine Windows-Installation auf eine HDD, obwohl ein RAID0-SSD-Verbund vorhanden ist. Hammer, kann ich nur mit dem Kopf schütteln. Bekommt man heute wirklich nur noch halbherzig produzierten Müll für sein Geld ?? Das du dann beim Klonen Probleme bekommst ist klar, da du ja ein RAID0-Verbund konfiguriert hast ab Werk mit 2 SSD's und du nicht auf eine einzelne SSD klonst. Würde mir den Stress gar nicht antun und das Ding zurückschicken wenn du noch innerhalb der 14 Tage bist. Die ticken doch wohl nicht sauber, die sollen gefälligst vernünftige Ware abliefern für euer schwer verdientes Geld. Lasst euch das nicht gefallen !! Gruß Jörg
  4. @SteffRoe: Hi, lange nichts mehr von dir gehört . Naja, also die Klavierlack-Flächen am M18X R2 halten sich ja eigentlich sehr stark in Grenzen. Da wäre nur die vordere Stirnseite zu nennen, wo sich die Lautsprecher befinden(da kommt man eigentlich nie dran !!) und die Funktionsleiste bzw. Tastaturumrandung, die etwas empfindlich ist. Ich weiß ja nicht, was manche mit ihren Geräten anstellen, wer nicht gerade Fingerring-oder Eheringträger ist oder sonst irgendwie extrem grobmotorisch veranlagt, dürfte hier eigentlich keine Probleme haben . Gefällt mir auch nicht, scheint aber technisch im Moment nicht anders lösbar. @Sk0b0ld: Das schaut zwar stylish, schick und aufgeräumt aus, bin mir da aber nicht sicher, ob das so positiv ist. Die Netzteile werden beide warm im Betrieb, hinsichtlich der Temperaturen wäre es sicher besser, beide Netzteile separat bzw. getrennt aufzustellen. Vielleicht sehe ich das aber zu eng, kann sein . Ganz genau mein Reden, noch vor kurzem hatte ich hier im Forum geschrieben, dass das zu 100% noch Ärger geben wird. Durch solche Entscheidungen, die von irgendwelchen Sparfüchsen in den Chefetagen getroffen werden, holt man sich nur Probleme ins Haus, die vollkommen unnötig sind! Jetzt muss man als Kunde, wenn man sich dieses Gerät bestellt, immer Angst haben, dass man evtl. die falsche Heatpipe verbaut bekommen hat, kotzt mich an sowas !! Gruß Jörg
  5. @captn.ko: ich habe mal gegoogled, es gibt viele unterschiedliche Meinungen, unter anderem die, das man im Spiel V-Sync deaktivieren muss, damit G-Sync richtig funktionieren kann. Im Spiel wohlgemerkt, nicht jedoch in den 3D-Einstellungen des Treibers ! Nicht unbedingt. Das Problem ist, man sieht von aussen nicht, was NVidia bei der Aktivierung von G-Sync genau macht bzw. was intern über den Treiber realisiert wird. Gibt es denn von NVidia eine offizielle Stellungnahme bzw. Beschreibung, welche Einstellungen vorgenommen werden müssen, damit G-Sync perfekt arbeitet? Gruß Jörg
  6. @captn.ko: Die Frage aber ist, ob G-Sync alleine genau genug ist. Man muss ja bedenken, dass die fps und auch die einzelnen Frame-Zeiten immer gewissen Schwankungen unterliegen, von daher bin ich mir da unsicher, ob G-Sync alleine für eine 100%ige Synchronisation mit dem Sichtgerät ausreicht. Leider habe ich keine G-Sync-fähige Hardware, kann also leider nicht selber nachschauen. Wie schauen denn die Einstellungen im NVidia Control Center aus bezüglich der Aktivierung von G-Sync? Ich meine mal irgendwo gelesen zu haben, dass auch V-Sync mit inbegriffen ist. Richtig, korrekt, oder aber es schaltet auf exakt die Hälfte, nämlich 60fps herunter, kommt darauf an, was der Spieleentwickler vorgesehen und dementsprechend implementiert hat. Das sehe ich wiederum etwas anders. Gerade in Verbindung mit G-Sync ist man doch jetzt mit V-Sync deutlich flexibler, da man nun nicht mehr an eine feste Bildwiederholfrequenz, die ein Sichtgerät XY hat, gebunden ist und somit V-Sync bei allen anliegenden fps-Werten genutzt werden kann, in einem gewissen Rahmen, den die Hardware vorgibt wohlgemerkt. Gruß Jörg
  7. @captn.ko: Ok, sehr gerne . Trotzdem sind natürlich alle Angaben ohne Gewähr, vielleicht sehe ich das ganze absolut falsch. Aus meiner Sicht macht der gleichzeitige Einsatz beider Technologien Sinn bzw. ist sogar absolut notwendig, um maximal mögliche Bildqualität zu erzielen. Warum sehe ich das so? G-Sync und die dazu notwendige G-Sync-fähige Hardware sorgen dafür, dass sich die Bildwiederholfrequenz des verwendeten Sichtgerätes dynamisch an die momentan aktuell anliegenden fps in einem Spiel angleicht bzw. anpasst. G-Sync sorgt also sozusagen für "das Grobe". Die Feinarbeit übernimmt dann wiederum V-Sync, indem es den Zustand des Bildaufbaus von einem Sichtgerät überwacht und erst dann das nächste gerenderte Bild von der Grafikkarte an dieses schickt, wenn das vorangegangene Bild komplett fertig aufgebaut wurde. Wird hingegen der Bildaufbau NICHT überwacht, was bei deaktiviertem V-Sync der Fall wäre, so wird mehr oder weniger unkontrolliert ein gerendertes Bild nach dem anderen an das Sichtgerät geschickt, was dann zu dem bekannten Tearing führt bzw. führen kann je nach Spiel, Art und Geschwindigkeit der Bewegungen. Gruß Jörg
  8. Ok, dieser Beitrag kommt viel zu spät, ich weiß, muss mich korrigieren : Die gleichzeitige Verwendung von G-Sync und V-Sync macht sehr wohl Sinn, hatte da einen Denkfehler. Auf Wunsch gerne ausführlicher. Gruß Jörg
  9. @der allgäuer: Wie war es denn VOR dem neu aufsetzen? Hat da noch alles einwandfrei funktioniert oder gab es da schon die gleichen Probleme? Gruß Jörg
  10. @K54: Vor einigen Monaten gab es mal ein Update des SA, seitdem gab es bei mehreren Probleme, u.A. auch bei mir. Nach einem Neustart fingen für ca. 3 Sekunden alle Lüfter an zu laufen auf 100%, zusätzlich fror das ganze System ein inklusive Mauszeiger. Nach der Deinstallation des SA gab es keine Probleme mehr. Anscheinend hat AW immer noch nicht nachgebessert. Gruß Jörg
  11. Ich habe mal eine Frage zum Undervolting bei AW-Notebooks. Hatte ich das bei einem Kommentar hier im Forum falsch verstanden, oder ist es inzwischen tatsächlich so, dass AW in den aktuellen Command Center-Versionen eine Undervolting-Möglichkeit vorgesehen und dementsprechend integriert hat ? Gruß Jörg
  12. @captn.ko: Grundsätzlich natürlich korrekt, es gibt allerdings Situationen, wo ein volles Ausreizen der Hardware nicht unbedingt zu nennenswerten Vorteilen führt. Eine Deaktivierung von V-Sync hätte auf meinen beiden 18ern definitiv eher Nachteile als Vorteile. natürlich ist G-Sync besser, vor allen Dingen wesentlich flexibler, das sehe ich auch so, führt kein Weg dran vorbei. Richtig, ich schrieb ja bereits, dass auch ich mich für das 144Hz-Display mit G-Sync entscheiden würde . 60Hz ist veraltet, ist mir durchaus bewusst. Genau, darum mache ich jetzt Schluss hier . Gruß Jörg
  13. @captn.ko: Bin ich zum größten Teil bei dir bzw. deiner Meinung, aber Verschwenden ist wohl eher das falsche Wort, je nach System kann man einfach Leistung bzw. Ressourcen sparen. Ich sehe das, was du als Verschwendung ansiehst, eher als Vorteil. Für jemanden, der seine Grafik-Hardware bzw. sein System hinsichtlich maximal möglicher fps IMMER voll auslasten möchte(Über den Sinn kann man jetzt streiten), für den ist V-Sync nichts, das stimmt. Wem jedoch beispielsweise 60fps in Verbindung mit einem 60Hz-Display ausreichen, obwohl die Hardware deutlich mehr fps generieren könnte, so hat man mit aktiviertem V-Sync die Möglichkeit, zwei Fliegen mit einer Klappe zu schlagen, indem die maximal mögliche Leistung begrenzt wird, was u.U. gerade in einem Notebook für bessere Temperaturen sorgen kann und man gleichzeitig ein sehr flüssiges Bild bekommt. Gruß Jörg
  14. @captn.ko: Richtig, ja . Diesbezüglich ist G-Sync schon eine gute Sache, muss ich zugeben. Aber wie schaut es denn, unabhängig von fps und einer Bildwiederholfrequenz bezüglich der allgemeinen Bildqualität aus mit aktiviertem G-Sync? Ist es wesentlich besser als V-Sync? Den einzigen Vorteil, den ich bei G-Sync bis jetzt sehe ist, dass man halt flexibler ist. Mit V-Sync ist man ja immer gebunden an die festen Bildwiederholfrequenzen der verwendeten Sichtgeräte. Hat z.B. ein Display 60Hz und ein Spiel schafft aber nur max. 54fps, so ist V-Sync nutzlos bzw. es schaltet dann u.U. auf 45fps oder gar 30fps herunter, um sich wieder korrekt mit dem Display synchronisieren zu können. Hier ist G-Sync-fähige Hardware natürlich deutlich besser und flexibler. Gruß Jörg
  15. @captn.ko: Würde ich ja auch machen, auf jeden Fall . ah ok, dies würde jedoch nicht die eigentliche Ansteuerung des Displays ändern, trotzdem wäre es natürlich eine Möglichkeit, die max. fps in Spielen zu reduzieren, damit die Grafikkarte nicht immer auf Anschlag belastet wird, wenn dies nicht unbedingt notwendig ist. Es kann natürlich sein, dass Profi-Spieler auf höhere Bildwiederholfrequenzen von Displays/Monitoren im Zusammenspiel mit möglichst hohen fps angewiesen sind, um halt geringstmögliche Latenzen und Verzögerungen zu haben. Für den typischen Gelegenheitsspieler mittleren Alters, zu dem ich mich zähle, reichen aus meiner Sicht 60fps in Spielen vollkommen aus, in Verbindung mit einem 60Hz-Display und aktiviertem V-Sync hat man eine schöne, glatte bzw. flüssige Bildwiedergabe. Gruß Jörg
  16. @Pferd5612, @JetLaw: Komisch, vielleicht liegt es daran, dass ich mich nicht mit meinem Dell-Account angemeldet habe, oder ich sollte mal den Browsercache löschen. Gruß Jörg
  17. @captn.ko: Danke für dein Feedback . Ja sicher, mit G-Sync würde sich die Bildwiederholfrequenz dann anpassen. Bei manchen Spielen kann man die gewünschten fps einstellen, bei anderen jedoch nicht. Ich weiß jetzt nicht, ob NVidia über den Treiber bzw. über das jeweilige zugehörige Spieleprofil eine fps-Begrenzung ermöglicht, habe ich nie so gemacht. Bei meinen beiden 18ern sind jeweils 60Hz-Displays verbaut, von daher hatte ich bisher das Problem nicht. Mir persönlich wäre es lieber, wenn das Display schon direkt in Windows mit 60Hz angesteuert wird. Aber vielleicht hänge ich noch zu sehr in den alten Zeiten und sollte so langsam umdenken und die neueren Technologien wie z.B. G-Sync nutzen und mögen lernen . Im deutschen Konfigurator bekomme ich bei der 9900HK/RTX2080-Kombi nur das 144Hz-Display angezeigt. Davon unabhängig würde ich mich beim Kauf aber auch für dieses entscheiden, trotz des 60Hz-Themas. Es wäre halt super, wenn man auch dieses Display auf Wunsch mit 60Hz oder meinetwegen auch 72Hz betreiben könnte. Somit wäre dann eine gewisse Flexibilität gewährleistet. Gruß Jörg
  18. @Pferd5612: Danke für dein Feedback . Soviel wie ich weiß, gibt es für das Area-51M nur das 144Hz-Display zur Auswahl. Im Treiber kann man die gewünschte Bildwiederholfrequenz in der Regel in einem gewissen Rahmen frei einstellen, das stimmt, jedoch muss auch das Display bzw. der Monitor den gewählten Modus unterstützen hinsichtlich der Auflösung und der Bildwiederholfrequenz. Ist dies nicht der Fall, so würde das Display/der Monitor kein Bild anzeigen und es käme u.U. eine vom Monitor generierte Fehlermeldung wie z.B. "Falsches Eingangssignal" Gruß Jörg
  19. Ich hätte da mal eine Frage zu dem 144Hz-Display. Kann bzw. könnte das Display auch mit 60Hz betrieben werden(Grafikkartenmodus 1920x1080 60Hz) ? Für mich persönlich würden in Spielen nämlich 60Hz locker ausreichen. In Verbindung mit V-Sync könnte man dann in Spielen, wo die Graka deutlich mehr als 60fps generieren könnte, die GPU-Last senken, um dann niedrigere Temperaturen zu bekommen. Vielleicht hat das ja jemand hier bereits getestet bzw. ausprobiert . Gruß Jörg
  20. @Viathyn: Das freut mich für dich, wundert mich aber auch gleichzeitig, da ich dafür im Moment keine technische Ursache erkennen kann. Wo ist denn der Unterschied zwischen der manuellen Installation des Treibers mittels dem Start der "Setup.exe" und der Installation über Experience ? Was für eine Fehlermeldung hattest du denn bekommen, als du versucht hast, den Treiber ohne Experience zu installieren? Gruß Jörg
  21. @Viathyn: Hat es inzwischen mit Geforce Experience funktioniert? Gruß Jörg
  22. @JetLaw: Aha ok, dass wäre eine Erklärung, denn 4000 Taler ist die Hardware inzwischen einfach nicht mehr wert, obwohl ich mir das sehr wünschen würde, denn dann würde ich für mein gebrauchtes Gerät in Max-Konfi und tadellosem Zustand noch einen guten Preis bekommen beim Verkauf. Offizielle Ankäufer bieten mir für mein Gerät knappe 500 Euro, ein Witz!! Dafür brauche ich nicht verkaufen, da behalte ich das Gerät lieber bis es irgendwann den Geist aufgibt. Gruß Jörg
  23. Also ich bin ja selber stolzer Besitzer dieses Gerätes, allerdings mit einer besseren Ausstattung als hier in diesem Angebot. Um einen Aprilscherz kann es sich ja nicht handeln, darum kann ich das gerade eben nicht nachvollziehen . Kann das gar nicht glauben. Gruß Jörg
  24. @Musel: Ich denke mal am Treiber selber wird das nicht liegen, sondern eher an einem Wärmefehler, Wackelkontakt oder sonstigen Hardware-Problem. Solltest du jemanden kennen, der ein Händchen für Elektronik hat und auch geübt und erfahren ist, könnte man versuchen, die Grafikkarte vorsichtig auszubauen, die Kontakte zu reinigen und dann alles wieder richtig zusammenzubauen. Wenn das alles nicht hilft kann natürlich auch das Mainboard oder die Grafikkarte defekt sein. Es kann viele verschiedene Ursachen geben für dein Problem. Gruß Jörg
  25. @captn.ko: Das ist richtig, dennoch bleibt halt trotz richtiger Planung und Überlegung seitens des Kunden LEIDER immer noch das Risiko, dass man ab Werk die eigentlich nicht passende Heatsink versehentlich einbaut. Und das wird auch bei manchen Geräten passieren, bin ich mir ziemlich sicher. Ob sich das dann bemerkbar macht hinsichtlich der Temperaturen muss man sehen, da kann man jetzt noch nichts zu sagen. Naja, es müsste wohl eher heißen "Aus gewinnmaximierender Sicht" ?. Gruß Jörg
×
×
  • Neu erstellen...

Wichtige Information

Bitte beachten Sie folgende Informationen: Nutzungsbedingungen, Datenschutzerklärung und Community-Regeln. Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.