Zum Inhalt springen

CES 2018


Norbert Bortels

Empfohlene Beiträge

  • 5 Monate später...

Also ich denke dieses Jahr wird das definitiv nix mehr mit nem anderen Design....

 

Der Area51 ist auch schon lange auf dem Markt....

 

Ich fürchte vor 2020 wird das nix.....aber ich lass mich überraschen

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich finde, es wird nicht nur mal Zeit für eine neue Optik, sondern generell für etwas neues und ausgefallenes, oder für die Wiederbelebung mancher Geräte. Ein neues 18"-Notebook, oder natürlich gerne auch größer(19" , 21") mit SLI/Crossfire-Option, 4K, einem tollen, neuen Kühlsystem, evtl. mit Desktop CPU und GPU(natürlich vom Format auf Notebook ausgelegt). Das wäre mal wieder was. Der AGA könnte auch mal eine Aktualisierung vertragen, der setzt auch bald Staub an. Auch die Anschlussart könnte auf TB 3 geändert werden, dann wäre ein AGA evtl. auch für Nicht-AW-Geräte benutzbar. Oder man entwickelt einen ganz neuen Anschluss, der eine höhere Bandbreite unterstützt als jetzt, so dass zb 8 oder mehr Lanes übertragen werden und nicht bloß 4.  Das, was so zur Zeit bei AW abgeht, reizt mich nicht, ich vermisse mal wieder so einen richtigen Kracher, ein richtig dickes, fettes Monster .

Gruß

Jörg

Bearbeitet von Jörg
Link zu diesem Kommentar
Auf anderen Seiten teilen

Persönlich interessiert mich ein Alienware Notebook > 17 Zoll nicht. Der Einzige Vorteil wäre dort ein SLI System zu verbauen, mit den Treiberproblemen/fehlende Optimierung von SLI in den letzten Jahren und den starken GPU momentan in Notebook sehe ich aber nicht dass das kommen wird. Natürlich wäre das ein Alleinstellungsmerkmal für Alienware so große Displays zu verbauen :)

Ich würde gerne ein 13 oder 15 Zoll Notebook mit 1060 MaxQ (13 Zoll) und 1070 MaxQ (15 Zoll) sehen die ähnlich flach und leicht sind wie ein Razer Blade 15. Alienware darf hier gerne die Notebook etwas dicker und schwerer machen als das sehr dünne Blade 15 wenn dafür die Kühlung besser ist. Natürlich das übliche wie >120 Hz Display, gute Auswahl an Anschlüssen, vernünftige Tastatur und leichte Wartbarkeit/Erweiterbarkeit.

Link zu diesem Kommentar
Auf anderen Seiten teilen

@einsteinchen:

vor 53 Minuten schrieb einsteinchen:

mit den Treiberproblemen/fehlende Optimierung von SLI in den letzten Jahren und den starken GPU momentan in Notebook sehe ich aber nicht dass das kommen wird.

Wie definierst du denn Treiberprobleme in diesem Zusammenhang? Bei meinen beiden SLI-18ern habe ich bis jetzt keinerlei Probleme mit den Graka-Treibern gehabt, zumindest keine technischen. Richtig ist natürlich, dass man für die Nutzung von SLI das zum Spiel zugehörige NVidia-Spieleprofil haben muss. Bezüglich fehlender Optimierung/Weiterentwicklung gebe ich dir recht, das schläft in der letzten Zeit etwas ein und ich kann nicht nachvollziehen, warum das so ist. Man hat eine Technologie aus dem Boden gestampft, die in den Anfängen noch Probleme machte, Stichwort Mikroruckler. Dies hat man aber inzwischen im Griff, trotzdem gehen viele Spiele-Entwickler von der Multi-GPU-Unterstützung weg. Für mich hat das nur etwas mit Geld zu tun und nichts mit einer Technologie, die nicht gut ist oder nicht funktioniert. 

Ok, die modernen GPU's sind leistungsstark, jedoch kann man mit 2 oder mehr Grakas im Verbund zusätzliche Leistung haben oder sich Leistungsreserven schaffen. Durch die Aufteilung der Berechnungen auf mehrere GPU's in einem System läuft jede einzelne GPU nicht am Anschlag, was sich dann auch positiv auf die Temperaturen auswirken kann und dementsprechend auch die Lebensdauer der Hardware positiv beeinflusst wird, gerade bei Notebook-Hardware ein großes Thema ! 

Aber wahrscheinlich sind die Gedankengänge der Hard-und Software-Hersteller vollkommen anders als meine, sonst würde man ja nicht so handeln. Schade ist es trotzdem, dass man anscheinend nicht mehr daran interessiert ist, Technologien, die schon vorhanden sind und noch nicht mal neu entwickelt werden müssen, weiter zu optimieren und zu nutzen, zumindest nicht konsequent. Von daher muss ich, wie du ja auch, davon ausgehen, dass mein Wunschgerät wohl eher nicht in Produktion geht.

Gruß

Jörg

Link zu diesem Kommentar
Auf anderen Seiten teilen

@JetLaw:

Danke für den Link. Ja, es sieht nicht wirklich gut aus.. Dennoch liegt dies nicht an der Technologie selbst, sondern nur an der perfekten Umsetzung ihrer Möglichkeiten. Entwicklerstudios wie z.B. Crytek zeigen unter Verwendung ihrer Cry-Engine eindrucksvoll, wie man SLI richtig nutzt und man Spiele wie Crysis unter Verwendung mehrerer GPU's massiv beschleunigt. Es kann sich also keiner herausreden oder sagen, es geht nicht !

Im Grunde genommen ist man aus meiner Sicht schon am Anfang den falschen Weg gegangen. Man hat sich viel zu stark abhängig gemacht von der Programmierung/Auslegung/Unterstützung eines Spieles/einer Anwendung und von einem Treiber bzw. von anwendungsspezifischen Treibereinstellungen(Profile) . Mit spezieller Multi-GPU-Hardware(Hauptsächlich Mainboards mit speziellen Chips, die für die Aufteilung der Berechnungen auf die vorhandenen GPU's sorgen)  und deren Unterstützung von Seite des Betriebssystems hätte man sich komplett unabhängig machen können. Leider hat man sich aber nun mal dafür nicht entschieden. Die Zeche dafür zahlen wir Endkunden :( .

Gruß

Jörg

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich finde das auch blöd, hab zwar selbst kein SLI System trotzdem wäre das eine Überlegung Wert. Ich denke mal die SLI Systeme bedienen einfach einen zu kleinen Markt, als dass man dort Ressourcen investieren will.

Das liegt sicher auch daran, das AMD und Nvidia jeder sein eigens Süppchen kocht. Wenn beide den gleichen Standard verwendet hätten, sähe die Sache bestimmt anders aus. 

Link zu diesem Kommentar
Auf anderen Seiten teilen

@JetLaw:

vor 7 Stunden schrieb JetLaw:

Ich denke mal die SLI Systeme bedienen einfach einen zu kleinen Markt, als dass man dort Ressourcen investieren will.

Ich persönlich halte diese Aussage der Entwicklerstudios teilweise für eine Ausrede. Was ich natürlich nachvollziehen kann und auch akzeptiere ist wenn man sagt, dass eine Multi-GPU-Unterstützung einen gewissen programmiertechnischen Mehraufwand erfordert und somit natürlich die Entwicklungskosten steigen. Da frage ich mich aber dennoch : Liebe Entwicklerstudios, wo liegt das Problem?? Bietet doch einfach 2 Versionen an, eine Version für ein Einzel-GPU-System und eine Version für Multi-GPU. Letzteres kostet dann statt zb 49 Euro halt 65 Euro. Jemand, der viel Geld in ein SLI/Crossfire.System gesteckt hat, wird mit dem Aufpreis von 16 Euronen kein Problem haben und dankbar sein für eine vernünftige und vor allen Dingen garantierte Unterstützung seiner Hardware, für die er viel Geld investiert hat. Manchmal sind Problemlösungen ganz nah, aber trotzdem werden sie nicht umgesetzt :( .

vor 7 Stunden schrieb JetLaw:

Das liegt sicher auch daran, das AMD und Nvidia jeder sein eigens Süppchen kocht. Wenn beide den gleichen Standard verwendet hätten, sähe die Sache bestimmt anders aus. 

Ein Riesenproblem, ganz genau !! Hard-und Softwareproduzenten(unter anderem auch Microsoft) hätten sich aus meiner Sicht schon bereits in den Anfängen der Multi-GPU-Technologie wesentlich mehr und öfter an einen Tisch setzen müssen. Dafür ist es aber jetzt zu spät und die Multi-GPU-Technologien in der Form, wie wir sie zu diesem Zeitpunkt kennen, werden sehr wahrscheinlich bald vom Markt verschwinden. Dies wäre aber zu verschmerzen, wenn man JETZT miteinander redet und den richtigen Weg einschlägt, gemeinsam !! Vorstellbar wären zukünftige Einzel-Grafikkarten, die je nach Ausbaustufe nicht nur einen, sondern halt mehrere Grafikchips zur Verfügung stellen, die dann intern auf der Grafikkarte miteinander kommunizieren und sich die Berechnungen teilen, ohne dass sich das Betriebssystem oder ein Treiber gesondert darum kümmern muss. Dies wäre dann eine interne Angelegenheit der Karte und würde alleine von ihrem Bios bzw. ihrer Firmware gesteuert. Damit würde man 2 Fliegen mit einer Klappe schlagen! Zum einen bräuchte man in seinem System nur eine einzige Karte, zum anderen bräuchten sich die Entwicklerstudios bei der Programmierung ihres Spieles nicht mehr um eine Multi-GPU-Auslegung zu kümmern, weil dies automatisch von der Grafikkarte gesteuert würde. Ich hoffe sehr, dass man diesen Weg in der Zukunft einschlägt oder zumindest im Ansatz.

Gruß

Jörg

Bearbeitet von Jörg
Link zu diesem Kommentar
Auf anderen Seiten teilen

Na klar gab's sowas, u.a.:

Radeon Pro Duo, Radeon R9 295 X2, Geforce GTX Titan Z, Radeon HD 7990 XT2, Geforce GTX 690, Geforce GTX 590, Radeon HD 6990, Radeon HD 6870 X2, Radeon HD 5970,
Geforce GTX 295, Radeon HD 4870 X2, Radeon HD 4850 X2, Geforce 9800 GX2, Radeon HD 3870 X2, Radeon HD 3850 X2, Geforce 7950 GX2, Radeon HD 2600 XT X2

Quelle

Link zu diesem Kommentar
Auf anderen Seiten teilen

@JetLaw

@dude08/15:

Ja, das habt ihr vollkommen richtig geschrieben, dieses Prinzip gab es schonmal, evtl. kann man daran ansetzen und diese Technik weiter verbessern. 

Egal was man in der Zukunft entwickelt und wie man es entwirft, das Ziel dabei sollte auf jeden Fall sein, JEDES Spiel und JEDE Anwendung, die die Grafikschnittstellen der jeweiligen OS nutzen(zb DirectX, Open GL), vollkommen unabhängig von seiner/ihrer Programmierung/Auslegung mit der zur Verfügung stehenden Grafikhardware maximal zu beschleunigen. Ob das dann eine einzige Karte evtl. mit mehreren Chips ist, oder ob es wieder 2 oder 3 Karten sind, die in einem System verbaut sind, spielt keine Rolle. Alles andere wird früher oder später wieder genau so enden wie SLI/Crossfire. Sobald man wieder anfängt, sich von irgendeiner Treibereinstellung und/oder von einer Programmierung abhängig zu machen, wird alles für die Katz sein.

Gruß

Jörg

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

Dein Kommentar

Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.
Hinweis: Dein Beitrag muss vom Moderator freigeschaltet werden, bevor er sichtbar wird.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Nur 75 Emojis sind erlaubt.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...

Wichtige Information

Bitte beachten Sie folgende Informationen: Nutzungsbedingungen, Datenschutzerklärung und Community-Regeln. Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.