Zum Inhalt springen

Alienware 15 - 2015 - Es passiert tatsächlich!?


Norbert Bortels

Empfohlene Beiträge

Also die neuen Geräte machen Vieles richtig, aber meiner Meinung nach auch Einiges falsch. Inzwischen kann man sie übrigens ausführlich auf der US-Seite von Alienware begutachten.

Positiv finde ich, dass das Gewicht erheblich reduziert wurde. Die Abmessungen sind nun auch halbwegs vertretbar und scheinbar werden sehr große Akkus verbaut. Weiter sehe ich in der Strategie, diese Amplifier zu etablieren, einen guten Kompromiss zwischen Mobilität (unterwegs) und Leistung (zuhause) zu erreichen. Die Optik der Geräte ist dezent, edel und sieht wieder mehr nach Alienware aus, als dies zuletzt der Fall war. Hoffentlich wird nicht zu viel Plastik verarbeitet, sondern mehr Metalle. Inwiefern QHD bei der Bildschirmgröße noch Sinn ergibt, lasse ich mal offen und stemple es als temporäre Modeerscheinung, hervorgerufen durch die Smartphones, ab.

Negativ festzuhalten ist jedoch, dass selbst bei den großen Modellen wie dem neuen AW17 auf DVD/BD-Laufwerke verzichtet wurde (wer schaut nicht gerne Mal Filme, installiert ältere Spiele von CD oder brennt ne Musik-CD fürs Auto?) dann sehe ich nicht gerade viele Schnittstellen und die Entscheidung, die Komponenten zu verlöten, ist eigentlich gegen die Tradition des Konzerns. Jetzt käme zuletzt noch die Frage auf, ob man nicht gleich auch noch hätte warten können, bis die fünftige Generation an Intel-Chips gelauncht ist und zur Verfügung steht. sodass man komplett neue CPU und GPUs verkauft.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Naja der neue 17er 3,7 der alte 4,1 kg ..... das ist jetzt nicht der Hammer Sprung und wenn man bedenkt das CPU und GPU verlötet sind weiß ich nicht ob mir das die Gewichtsreduzierung wert ist.

Aber Dell macht es mir hier einfach mit meiner Entscheidung die neue Generation nicht zu kaufen sondern meinen 17er zu behalten und ne neue Graka zu verbauen. Der Mehrwert ist mir da nicht so gegeben umzusteigen. Ich bin nur mal gespannt was die ersten Tests des Grafikverstärkers mit einer vernünftigen CPU zeigen.

Link zu diesem Kommentar
Auf anderen Seiten teilen

na die anderen werden ja auch noch lange erhalten bleiben.................

Link zu diesem Kommentar
Auf anderen Seiten teilen

Wegfall des BD/DVD-Laufwerks ist für mich ein KO-Kriterium. Ich habe immer noch alte Spiele welche die DVD im Laufwerk benötigen, oder in will mal eine DVD drauf gucken. Dann will ich nicht immer ein externes Laufwerk dran baumeln haben.

Fest verlötete Graka ist auch ein Minuspunkt. Theoretisch evtl. verschmerzbar, wenn der Preis dafür radikal günstiger ist, weil die meisten eh nie upgraden 8schon wegen der Kosten. Aber es bedeutet, dass man nach Ablauf der Garaniezeit nicht mehr selber eine kaputte Graka austauschen kann.

Und die Anzeige liest sich wirklich so als we AW17 das stärkste AW Lappi wird. Das passt auch zu dem, was Schnuffel seinerzeit gepostet hat, nämlich dass es vom AW18 mangels Verkaufszahlen keine neue Generation geben wird.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich finde die Grafikperformance nämlich als ziemlich ausreichen und noch immer ist FullHD standard und kein 4K, wer 4K will kann sich ja den Amplifier holen, mobil ist dafür halt dann was anderes.

1440p wird sich wohl mittelfristig als Standard durchsetzen, endlich.

Zudem wird die verlötete GPU bei Auflösungen wie 3440x1440 in Zukunft auch schnell überfordert sein.

Meine gute, alte 7970m konnte das in vielen Spielen schon nicht mehr bewerkstelligen und die ist keine zwei Jahre alt.

Außerdem: Wer sich einen Laptop für >2K € leistet, ist auch potentiell eher dazu geneigt mehr Geld für einen teuren Monitor auszugeben.

Gerade die 34 Zoller mit 21:9 kann ich zum Zocken nur wärmstens empfehlen und die gibt es mittlerweile auch schon für unter 750 Euro; erfordert auch deutlich weniger Leistung, als ein 4K-Screen.

Einmal darauf gespielt, fragt man sich, wie man nur früher auf so einem beschränkten 16:9-Fenster spielen konnte. lol

Auserdem muss man erst einmal Tests mit dem Amplifier abwarten, ob er hält was er verspricht. Glaube gelesen zu haben das es da 10% oder mehr Leistungsverlust an der externen Graka geben kann.

Also entweder hast du das im Zusammenhang mit anderen Bastel-eGPU-Lösungen gelesen.

Da war der Leistungsverlust in der "geringen" Bandbreite des Thunderbolt-Anschlusses begründet.

Die Alienware-Lösung baut ja auf eine volle, direkte (proprietäre) PCIe-Anbindung.

Oder eben durch die CPU-Limitierung bei dem lahmen ULV-Prozessor des Alienware 13, was bei den Quad-i7 der großen Brüder ja kein Problem darstellen sollte.


Hat eigentlich irgendjemand etwas zu den Akkulaufzeiten gelesen?

Das war der Grund, warum ich meinen Alienware nach 1,5 Jahren wieder verkaufen musste.

Ich benötigte (nicht zum Zeitpunkt des Kaufs, sondern erst später) ein Gerät, mit dem ich auch mal ein paar Stunden ohne Strom auskommen kann.

Da sowohl die Haswells, als auch vor allem Nvidias neue Maxwells sehr gute Stromsparmechanismen für den Office-Betrieb haben, müsste ja dank großem Akku theoretisch auch eine lange Laufzeit abseits der Steckdose möglich sein.

Mein absoluter Kaufgrund ist tatsächlich der Graphics Amplifier und die verringerten Maße/Gewicht, da ich mir dadurch den normalen Desktop-PC erspare und eine gewisse Portabilität gewährleistet ist (ich spreche vom 15 Zoller).

Ein K.O.-Kriterium wäre aber, wenn das Gerät nach drei Stunden PDFs und Internet surfen den Geist aufgibt, wie es bei meinem M17XR4 der Fall war.

Edit: Habe gerade in der Tabelle bei Alienware.com gelesen, dass der 15 Zoller im Gegensatz zum 17er nur 2.0 Sound, also keine Subwoofer hat.

Das ist ja mal bescheuert!

Bearbeitet von Capone2412
Link zu diesem Kommentar
Auf anderen Seiten teilen

Zitat gemäß Forenregeln §14 entfernt!

Naja, aber was soll man denn mittlerweile noch extern anschließen?

Bald gibt es dann noch ein Gerät wo man ne Desktop-CPU extern dranhängt...unter Mobilität verstehe ich was anderes. (Externe Festplatte, externes Laufwerk, jetzt externe Grafikkarte, Gamepad, bei einigen noch externe Maus, Tastatur und Monitor...). Dann lieber ein ganzteiliges "klobiges" Gerät..

Jetzt mal allgemein:

So viel leichter und dünner sind die meiner Meinung nach nicht geworden, dafür das nun alles gelötet wird und es kein Laufwerk gibt. Viel Spaß dem VOS-Techniker falls mal was kaputt geht.. bzw. falls man das Teil ohne Garantie reparieren lassen muss..

Zur Auflösung: Ich finde sogar schon das Retina Display auf dem Macbook zu krass. Es ist zwar schön, aber auch ein Stromfresser und ältere Anwendungen, bzw. Spiele ohne Retina Auflösung sehen "bescheiden" aus..

Auf die Qualität bin ich auch gespannt, ich pers. finde die von den aktuellen eher schlecht, v.a. die Tastatur. Konnte mal meinen M14xR2 mit dem AW14 vergleichen und finde den "alten" deutlich wertiger..

Link zu diesem Kommentar
Auf anderen Seiten teilen

Also entweder hast du das im Zusammenhang mit anderen Bastel-eGPU-Lösungen gelesen.

Da war der Leistungsverlust in der "geringen" Bandbreite des Thunderbolt-Anschlusses begründet.

Die Alienware-Lösung baut ja auf eine volle, direkte (proprietäre) PCIe-Anbindung.

Oder eben durch die CPU-Limitierung bei dem lahmen ULV-Prozessor des Alienware 13, was bei den Quad-i7 der großen Brüder ja kein Problem darstellen sollte.

Das mit der 10% Grafik Leistungseinbusse habe ich im Test des AW13 gelesen. Die Grafik Leistungseinbusse des Amplifier bezog sich aber nicht auf den lahmen i5 Prozessor, man ist leider im Test nicht näher darauf eingegangen.

Zitat notebookcheck.com

"Größtes Alleinstellungsmerkmal ist die dedizierte »Grafikbox«, welche den Namen Amplifier trägt und mit Stromversorgung 3,5 Kilogramm wiegt. Zum Aufpreis von knapp 260 Euro erhält der Käufer ein spezielles Gehäuse, das mit einem 460-Watt-Netzteil sowie vier USB-3.0-Ports bestückt ist und eine Desktop-Grafikkarte aufnehmen kann. Angesichts der im Notebook integrierten GeForce GTX 860M lohnen sich nur High-End-GPUs (z. B. die GTX 980). Da die Bildübertragung per PCIe-x4 erfolgt (proprietäres Kabel), büßt der dedizierte Grafikchip im schlimmsten Fall mehr als 10 % Leistung ein. Durch die Verwendung des Graphics Amplifiers lässt sich die Anzahl der externen Monitore massiv steigern."

Alienware 13: Das Notebook mit dem Grafikverstärker - Notebookcheck.com News

Link zu diesem Kommentar
Auf anderen Seiten teilen

Naja, aber was soll man denn mittlerweile noch extern anschließen?

Bald gibt es dann noch ein Gerät wo man ne Desktop-CPU extern dranhängt...unter Mobilität verstehe ich was anderes. (Externe Festplatte, externes Laufwerk, jetzt externe Grafikkarte, Gamepad, bei einigen noch externe Maus, Tastatur und Monitor...). Dann lieber ein ganzteiliges "klobiges" Gerät..

Gerade bei der Verwendung einer externen Umgebung (Maus, Tastatur, Monitor usw) am heimischen Desktop finde ich den Amplifier perfekt. Du kannst sämtliche Geräte, einschließlich Monitor, daran anschließen und musst nur noch einen einzigen Stecker in dein Laptop stöpseln. Die Schritte zwischen Schreibtisch und Rucksack werden also deutlich weniger.

Hätten sie das optische Laufwerk für etwas sinnvolles weggelassen, dann wäre es mir egal. So haben sie leider einen Slot für eine weitere Festplatte entfernt. ODD raus, Caddy mit HDD oder SSD rein.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Zitat notebookcheck.com

"(...) Da die Bildübertragung per PCIe-x4 erfolgt (proprietäres Kabel), büßt der dedizierte Grafikchip im schlimmsten Fall mehr als 10 % Leistung ein.

Das wundert mich. Laut offiziellen Angaben auf Alienware.com handelt es sich um eine volle PCIe 16X-Anbindung. Das Problem mit dem Leistungsverlust gibt es im Desktopbereich bei Triple-/Quad-SLI, da die letzte Grafikkarte dann idR. nur mit PCIe 4X angebunden ist. Wobei man bei solchen Konfiguration wohl eher andere, schwerwiegendere Probleme hat. lol

Den Leistungsverlust konnte Notebookcheck ja gar nicht ermitteln, da die CPU sowieso limitiert. Insofern sind das bisher nur Spekulationen. Der kleine ULV-i5 mit einer brachialen GTX 980; das ist, wie ein Ferrari-Motor in einem Lada.

Gerade bei der Verwendung einer externen Umgebung (Maus, Tastatur, Monitor usw) am heimischen Desktop finde ich den Amplifier perfekt. Du kannst sämtliche Geräte, einschließlich Monitor, daran anschließen und musst nur noch einen einzigen Stecker in dein Laptop stöpseln.

Ich finde es nur schade, dass sie nicht gleich noch den Ladestrom in das Kabel integriert haben. Das hätte ja technisch eigentlich möglich sein müssen. Und wenn der Anschluss dann 50% breiter und der Kabeldurchmesser um die Hälfte dicker gewesen wäre, so what?!

Bearbeitet von Capone2412
Link zu diesem Kommentar
Auf anderen Seiten teilen

Der GA selber bietet 16x an, lediglich der i5 im AW13 bietet nur 4x pcie Anbindung an. Die grossen i7 im AW15&17 stellen mehr lanes zur Verfügung. Wie viel genau müsste man auf intel.com nachschauen.

Gesendet von meinem Nexus 5

Link zu diesem Kommentar
Auf anderen Seiten teilen

Hallo,

also ich für meinen Teil wäre wahnsinnig enttäuscht wenn es in Zukunft von AW keine SLI/Crossfire-Notebooks mehr gibt. Das wäre echt ein starkes Stück. Allerdings hoffe ich insgeheim, dass es vielleicht etwas später doch noch ein 18er geben wird, dieses dann mit SLI bzw. Crossfire. Sollte es keine Geräte mit 2 Grakas mehr geben muss ich ganz schwer überlegen wieder ein AW zu kaufen. Zugegeben, die Idee mit dem GA finde ich toll, aber ich möchte nicht von diesem abhängig sein, um relativ aktuelle und aufwändige Spiele mit hohen fps spielen zu können. Ich favorisiere nachwievor definitiv SLI/Crossfire-Notebooks, von mir aus gerne schön dick, klobig und schwer, das ist mir egal. Eigentlich mag ich das sogar, wenn richtig "Material" verarbeitet wurde. Für mich ist das ein Zeichen von einer gewissen Robustheit und Qualität. Wenn es jedoch bei diesen 3 neuen Geräten bleiben sollte fände ich das übel. Die Queen würde wohl sagen : "I'm not amused !!" :(.

Gruß

Jörg

Link zu diesem Kommentar
Auf anderen Seiten teilen

Bis sich die 1440p als standard durchsetzen, werden noch mindestens 2 Jahre vergehen...

Hast du mal gesehen wielange man vorallem im Notebookbereich 1080p als standart hatte? Gerade die internen GPU sind einfach viel zu Leistungsschwach und bei einem Notebook welche knapp 3000€ kostet, geb ich nicht mal eben mitm Fingerschnippt nochmal 1-2 Dekstop Karten dazu. Ich verdiene zwar viel, aber nen Geldscheisser hab ich dann auch irgendwo nicht, zumal der Wertverfall von Hardware ohnehin der Witz schlechthin ist.

Wer also einen Alienware kauft und ein 1440p Display hat, der kann sich zukünftig zwischen drei Dingen entscheiden...

1. FullHD und absolut flüssiges Zocken, mit einer schei** optik auf dem Display

2. in 1440p zocken und da wieder die Einstellungen runtergedreht, weils sonst keinen spaß macht

3. Desktop Karten dazu kaufen und in 1440p Spielen und sich in einem Jahr ärgern, das man einfach zuviel Kohle ausgegeben hat und man lernt daraus

die 4K Geschichte, welche einfach noch völlig unnötig ist (Der Pixelwahn derzeit ist sowieso einfach nurnoch lächerlich 4k 5k... LG mit nem 8K TV Gerät, obwohl es keinen einzigen Film dafür gibt...), wird zumindest jetzt erstmal für den Notebookrückgang sorgen, da bin ich mir ziemlich sicher, bis dann in 2 Jahren die mobilen GPUs entsprechende Leistung besitzen, um auch hier in 4k, mit vollen Details, absolut flüssiges zocken ermöglichen.

21:9 ist geschmackssache, mein Fall ist es leider überhaupt nicht, da hab ich lieber ein 16:10 Format.

Die verlötete GPU sorgt zumindest bei diesen Modellen, zu einem weiteren rückgang der Verkäufe, ganz erlich, bei solch einem teuren Gerät? Nein danke...

Ich bin der Meinung, das man gerade den falschen Weg einschlägt, die Amplifier sind eine gute Idee, die nichtmehr vorhandene Möglichkeit die interne Karte aufzurüsten allerdings nicht.

Ich für mich selbst werde mich aber wohl, bevor ich mir den Amplifier hole, eher direkt für ein Desktop Modell entscheiden, will ich mal woanders zocken und das in gewohnter Qualität, muss ich dann auch jedesmal den Amplifier mitschleppen, sprich, ich kann hier direkt den Desktop Rechner einpacken und gut ist. Zocken würde ich dann eh an einem externen Display, welches wiederum separat eingepackt werden muss. Ich spar mir mit dem Desktop also schonwieder ein Teil.

(Vorsicht, meine Meinung)

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich rede von 1440p auf großen Desktop-Monitoren mit 27 Zoll und die setzen sich gerade als Standard durch.

Zum Glück, denn die Zunahme der Pixeldichte hat in dem Fall absolut nichts mit Pixelwahn, sondern vielmehr mit Notwendigkeit zu tun.

1080p auf 27 Zoll sind grauenhaft, 4K dagegen zum Spielen völlig übertrieben, da gebe ich dir absolut Recht.

WQHD bekommt jede 290X oder GTX 970/780 für mittleres Budget problemlos gerendert.

Beim Alienware 15 würde ich mir einfach für 200$ Aufpreis ein 4K-Display einbauen lassen, da eine hohe Pixeldichte bei nur 15 Zoll für's Arbeiten einfach einen großen Mehrwert bietet und zum Zocken perfekt auf FHD skaliert.

Zum Thema Geld ausgeben:

Es ist wohl teurer, einen vernünftigen Gaming-Laptop und einen kompletten Gaming-PC zu kaufen, als einfach zum Alienware-Notebook einen "Graphics Amplifier" zzgl. Grafikkarte zu erstehen. Den kann man bereits ab 180 Euro vorbestellen, was durchaus günstig für das Gebotene ist. Die Grafikkarte kann man dann je nach Bedarf aufrüsten.

Für die mobilen 1080p wird die GTX 980m wohl einige Jahre reichen, zumal ich unterwegs zukünftig auch mal mit mittleren Details Vorlieb nehmen kann. ;)

Link zu diesem Kommentar
Auf anderen Seiten teilen

skaliertes FHD auf 4K Bildschirmen sieht nicht schön aus... bisher wars immer grauenhaft, gerade wenn feine Linien abgebildet werden, weshalb das bei 15 zöllern einfach nur absoluter Krampf ist.

Ich hatte ebenso nicht geschrieben ein Notebook UND einen Dekstop zu kaufen. Für das Geld was jedoch ein Notebook + Amplifier kostet, mit anständiger Karte und jedes Game mit hohen FPS zu zocken auf 4K muss ich zusätzlich soviel Kohle ausgeben, das sich das Notebook einfach nichtmehr rentiert...

Wenn ich mobil sein will mit einem Notebook reicht mir eine Intelkarte, solange ich nicht mobil zum Zocken fahre (Ja es gibt noch Lanpartys :) ). Genau hier hat ein Desktop dann nämlich auch seine Vorteil... zum Zocken unterwegs nimmt man eh ein externes Display mit und da kann ich auch nen Desktop einpacken anstatt Amplifier + Notebook und dennoch mehr Geld und schwächere Leistung, die CPU spielt ja hier dann auch ne Rolle. Es macht mir immerhin niemand weis, das er unterwegs in einer Bar, Caffee, Disco oder sonstwo sein Notebook auspackt und dort zu zocken beginnt. Das wird nur bei Freunden, oder einem selbst passieren, eben maximal noch auf ner Lanparty.

Wie ich oben schon geschrieben hatte, ist das auch meine Meinung und ich bin daher kein Fan von dem 4K Pixelwahn und mehr, auch die externen bildschirme machen wie du selbst schon geschrieben hast, ab einer gewissen größe mit mehr Pixel sinn. Als FHD kam, hat sich keiner beschwert es ist grauenhaft, plötzlich ist es das bei 27 Zoll. Gut ich spiele auf 24 Zoll und bin froh darüber, 27 würde ich mir noch eingehen lassen, aber über 30 zoll? Ne danke, keine Lust meinen Kopf jedesmal von links nach rechts zu drehen und dann noch ein Meter vor dem Display zu hocken. Bevor ich mir DAS antuhe, hole ich mir doch direkt nen Beamer und eine Leinwand und setze mich in entsprechender entfernung hin :)

Wie gesagt ist der Amplifier eine gute Idee, mobil ist es jedoch nichtmehr. ISt halt eben die frage, ob man nicht gleich zum Desktop greift, wenn die Notebooks auch schon auf die Quatschauflösung hochgeschraubt werden.

In meinen Augen sollten sie einfach 2 Jahre warten, dann sind auch mobile Karten entsprechend weit genug, um alles auf Max zu spielen, ohne das man gezwungen wird, einen Amplifier neben ran zu stellen (für den Otto normalo).

Sollte man dieses Jahr allerding noch mobile Karten releasen, welche urplötzlich das ganze problemlos meistern, halte ich die entwicklung, bzw. releases der letzten 2 Jahre für die reinste Verarsche seitens Nvidia und Ati, aber das ist ja meisten so :\

Link zu diesem Kommentar
Auf anderen Seiten teilen

Noch zur 4K-Diskussion: Irgendwann wird das kommen. Auf dem Ipad muss ich schon sagen, dass das Retina-Display klasse aussieht. Aber das habe ich normalerweise dichter vor meinem Gesicht als das Display des Laptops. Und ich gehe auch davon aus, dass mehr Pixel mehr Graka-Leistung kosten. Insofern: Ja, 4K wird kommen, aber wenn man die nächsten 2 jahre darauf verzichtet und stattdessen die Graka-Einstellung im Spiel auf Maximum stellen kann, hat man vermutlich mehr davon.

Unabhängig davon:

Ich frage mich, ob wir nicht voreingenommen gegen die verlötete Graka sind. Ich frage mich, was AW dazu bewegt hat sich für die Löt-Lösung zu entscheiden:

- geringere Bauhöhe (OK, er was macht das aus? 2mm?)

- geringere Kosten in der Produktion (Welche Kostenersparnis wird das wohl sei beim Verkaufspreis? 100 Euro, wenn überhaupt, vermutlich eher nur 50 oder?)

- geringere Kosten bei Wartung & Verschleiß (Kann es sein, dass beim Löten man keine Wärmekeitpaste braucht, welche altern kann und dass dadruch die Lebensdauer der Graka und Prozzi erhöht wird?)

- den meisten Kunden ist es eh egal, da Grakas in Laptops selten upgegradet werden (was natürlich gerade für einen Teil der AW-Kundschaft nicht stimmt)

Aber was sonst noch?

Link zu diesem Kommentar
Auf anderen Seiten teilen

Du hast meinen Teil eigentlich sehr gut zusammengefügt ^^

- Nunja gegen die verlöteten Grafikkarten sprich allein schon das Problem, ist die Karte hinüber, was machste dann? So tausch ich die einfach auch selbst gegen ne neue aber eine verlötete? Pustekuchen, komplettes Board.

- Wenns dann 2 mm ausmacht, pack ich lieber 2mm drauf und hab wieder ein ptisches Laufwerk

- Wartung kann man sich streiten, verschleiß jedoch, hat im prinzip das gleiche Problem wie mein erster Punkt

- Produktionskosten dürfen nicht wirklich weniger sein denke ich, immerhin ist eine nicht verlötete nicht nur in einem Gerät einsetzbar und da diese dann in Serie kommt, dürfte das nicht viel ausmachen, eventuell garnichts.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Du hast meinen Teil eigentlich sehr gut zusammengefügt ^^

Wer lesen kann ist klar im Vorteil ;-)

Aber schön, dass wir einer Meinung sind ;o)

Also ich erinnere mich an die ersten Aldi-PCs. Da war damals auch die AGP-Grfaikkarte augelötet, weil dass die Kosten für den Sockel gespart hat. Graka tauschen ging dann natürlich nicht mehr, aber das war so ein Kampfpreis, dass man jeden Cent gespart hat.

Nur: AW ist ja kein Aldi-PC, sondern spielt im Hochpreissegment. Warum also sparen die sich den Sockel? Doof sind die ja (hoffentlich) nicht.

Bauhöhe ist wirklich das einzige Argument (die Apple-Dinger sind auch nur so dünn weil dort alles mögliche nur verklebt ist) und dafür war man auch bereit das Laufwerk wegzulassen.

Vielleicht sind wir alle old-fashioned, weil wie den AW als Desktop-Replcement sehen, aber AW sieht schon den Trend zu super flachen Gamer-Laptops.

Zumindest setzen auch andere Hersteller auf super flache Gaming Laptops:

Aorus X7 das weltweit flachste und leichteste SLI-Gaming-Notebook - Notebookcheck.com News

http://www.notebookcheck.com/Vorbestellphase-fuer-Razer-Blade-14-Zoll-Gaming-Laptop-gestartet.93597.0.html

http://www.notebookcheck.com/Test-MSI-GS70-65M21621-Notebook.101807.0.html

Link zu diesem Kommentar
Auf anderen Seiten teilen

Guten Abend zusammen,

Golem hat auch schon einen Test gebracht, wobei das XPS auch mit erwähnt wurde.

XPS 15 und Alienware 15: Dell erweitert zwei 15,6-Zoll-Notebooks mit 4K-Displays - Golem.de

Sehr interessanter Thread hier!

PS: Ein verklebtes Notebook von DELL würde ich mir glaube ich auch nicht kaufen, besonders bei dem Preis zur Konkurrenz bei anderen Anbietern.

Gruß Casa

Link zu diesem Kommentar
Auf anderen Seiten teilen

skaliertes FHD auf 4K Bildschirmen sieht nicht schön aus... bisher wars immer grauenhaft, gerade wenn feine Linien abgebildet werden, weshalb das bei 15 zöllern einfach nur absoluter Krampf ist.

(...)

Als FHD kam, hat sich keiner beschwert es ist grauenhaft, plötzlich ist es das bei 27 Zoll. Gut ich spiele auf 24 Zoll und bin froh darüber, 27 würde ich mir noch eingehen lassen, aber über 30 zoll? Ne danke, keine Lust meinen Kopf jedesmal von links nach rechts zu drehen und dann noch ein Meter vor dem Display zu hocken. Bevor ich mir DAS antuhe, hole ich mir doch direkt nen Beamer und eine Leinwand und setze mich in entsprechender entfernung hin :)

FHD skaliert absolut perfekt auf UHD-Screens:

FHD: 1920x1080

UHD: 3840x2160

-> 1 Pixel in FHD-Auflösung enstpricht exakt 4 Pixeln auf dem UHD-Screen. Demnach ist die Darstellung nicht interpoliert, sondern direkt 1:4 darstellbar.

Zu den Monitor-Größen:

FHD auf 24 Zoll ist noch annehmbar, aber auf 27 Zoll ist das schon nicht mehr schön.

Ich hatte früher längere Zeit einen 27 Zoll TN Monitor mit FHD und das war schon sehr grobpixelig und hässlich, selbst mit 8x MSAA.

34 Zoll bei 21:9 hat genau die gleiche Höhe, wie ein 27 Zoll Monitor bei 16:9

Mit einer Auflösung von 3440x1440 hat der 34-Zoller auch die gleiche Pixeldichte, wie ein 27-Zoller mit 2560x1440.

Insofern ist die Größe nicht so überdimensioniert, wie es die 34 Zoll rein von der Zahl her vermuten lässt.

Es ist im Prinzip lediglich ein 27 Zoll WQHD-Monitor, der an den Seiten noch jeweils Bildfläche dazu bekommen hat.

Durch das erweiterte Sichtfeld links und rechts im peripheren Sehbereich hat man allerdings ein deutlich stärkeres Mittendrin-Gefühl, als es mit 16:9 oder gar 16:10 der Fall ist. Und die erhöhten Anforderungen an die Grafikkarte sind im Vergleich zu 2560x1440 minimal.

Ich werde definitiv nie wieder einen Monitor mit kleinerem Seitenverhältnis kaufen. *in-love*

post-2408-14366127336184_thumb.png

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich frage mich, was AW dazu bewegt hat sich für die Löt-Lösung zu entscheiden:

1) geringere Bauhöhe (OK, er was macht das aus? 2mm?)

2) geringere Kosten in der Produktion (Welche Kostenersparnis wird das wohl sei beim Verkaufspreis? 100 Euro, wenn überhaupt, vermutlich eher nur 50 oder?)

3) geringere Kosten bei Wartung & Verschleiß (Kann es sein, dass beim Löten man keine Wärmekeitpaste braucht, welche altern kann und dass dadruch die Lebensdauer der Graka und Prozzi erhöht wird?)

4) den meisten Kunden ist es eh egal, da Grakas in Laptops selten upgegradet werden (was natürlich gerade für einen Teil der AW-Kundschaft nicht stimmt)

1)

Bei der CPU sind es tatsächlich nur rund 2mm. Bei der GraKa sind es deutlich mehr. Dort kommt dann zugute, dass die auf der Unterseite verbauten Teile schön nebeneinander platziert werden können. Dazu noch die Platine selbst. Der Abstand des RAMs auf der Rückseite zum Motherboard kommt auch noch hinzu. Das müssten dann alles in allem rund 5 mm sein.

Wobei dieses Argument nur teilweise treffend ist. So könnte beispielsweise eine MXM-Karte so verbaut werden, dass sie nicht mehrere Millimeter über dem Motherboard "schwebt" sondern in einer Aussparung montiert wird. Und schon wäre ein Notebook mit MXM genauso flach zu bauen wie eines ohne.

2)

Die Kosten für das Design des Motherboards wird sicherlich nicht geringer, wenn die Grafikarte dort intigriert werden muss. Ob es Ersparnisse gibt, wenn man die Grafikkarten in Einzelteilen kauft weiß ich nicht. Das lässt sich nicht auf die schnelle googlen. Jedoch gehe ich davon aus, dass es sich für Dell schon lohnen wird.

3)

Der Verschleiß wird weder geringer noch höher. Es sind weiterhin die selben Komponenten enthalten die den selben Alterungen unterliegen. Nur wird es problematisch, wenn eine der Komponenten den Dienst quittiert. Wenn bei meinem Laptop die CPU defekt ist schmeiße ich sie weg und ersetze sie. Das kostet mich rund 150€. Ein komplett bestücktes Motherboard wird deutlich teurer sein. Und nun rate mal wer der einzige Hersteller von den Motherboards sein wird. ;)

Die Wartung bleibt ebenfalls gleich. Die Reinigung gestaltet sich, je nach Bauweise, weder schwieriger noch leichter. Es wird genauso Wärmeleitpaste verwendet wie bei gesteckten Komponenten. Auch die Wärmeleitpads sind die selben. Hier ergibt sich also kein Unterschied.

4)

Klar, die meisten Nutzer werden nie die CPU oder die Grafikkarte austauschen. Doch wenn es um den Wiederverkaufswert geht sprechen wir uns wieder. Für welches Notebook mit einer fest verlöteten GT240m bekommt man 500€? Genau, für gar keines. Beim M15x hingegen spielt es keine Rolle ob eine 240m oder eine 260m verbaut ist. Da ist es für den Wert nur entscheidend wie das Notebook aussieht.

Für mich ist das nur eine Maßnahme um den Produktzyklus zu verkürzen und auch die bastelwilligen Kunden dazu zu bewegen sich regelmäßig einen neuen Laptop zu bestellen.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Es wird genauso Wärmeleitpaste verwendet wie bei gesteckten Komponenten. Auch die Wärmeleitpads sind die selben. Hier ergibt sich also kein Unterschied.

Wenn das so ist, dann kann man die Wärmeleitpaste aber auch nicht erneuern, oder?

Zuerst dachte ich, dass der Dollarpreis ja ganz Ok aussieht. Aber wenn man dann nachrechnet: DVD/BD-Laufwerk fehlt, das kommt extra. Bei fest verlöteten Komponenten ist man ja fast "gezwungen" den längeren Support zu nehmen und der ist zuletzt ja auch deutlich teurer geworden.

Ob der Laptop dicker oder dünner ist, ist mir egal, da es für mich ein DTR ist. Und auf dem Tisch will ich alles in einem haben und keinen Kabelsalat für externs Laufwerk etc.

Es ist mir bis jetzt einfach noch nicht gelungen mir das neue Konzept schön zu reden....:cry:

Link zu diesem Kommentar
Auf anderen Seiten teilen

Dein Kommentar

Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.
Hinweis: Dein Beitrag muss vom Moderator freigeschaltet werden, bevor er sichtbar wird.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Nur 75 Emojis sind erlaubt.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...

Wichtige Information

Bitte beachten Sie folgende Informationen: Nutzungsbedingungen, Datenschutzerklärung und Community-Regeln. Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.