Zum Inhalt springen

Alienware Area-51m Laberthread & Owners Lounge


Empfohlene Beiträge

So, hier etwas verspätet mein Senf :):

@Ludo:

Zitat

Na hoffentlich dann auch mit 18", SLI und mehreren SSD-Steckplätzen :) .

Ja, das wäre natürlich toll, wird aber wohl eher nicht kommen, aus mehreren Gründen.

Grund 1 : SLI-Geräte lohnen sich inzwischen LEIDER!!! nur noch für einige wenige Spiele-Titel, die meisten neueren Games, vor allen Dingen alles das, was von Microsofts Spielestudios auf Basis der UWP(Universal Windows Platform) entwickelt wird, unterstützt keine Multi GPU-Unterstützung mehr. Ich könnte auch darüber heulen, aber es nützt nichts, man muss sich damit abfinden.

Grund 2: Die Nachfrage ist zu gering, ausserdem hat die Zulieferindustrie keine passenden Displaygrößen parat, also wird es sehr wahrscheinlich bei "nur" 17,3" bleiben.

Mehr Laufwerke machen nur bei großem Datenaufkommen Sinn, ich finde 2-3 Steckplätze für Laufwerke im Notebook reichen vollkommen aus.

@K54:

Zitat

Wahrscheinlich wird das Gerät die neuen 2080/2070 Super Grafikkarten bekommen, welche aber nicht wirklich ein lohnenswertrs Update darstellen.

Aha okay. Ist denn schon bekannt, ob es etwas ganz neues gibt was sich in Planung befindet, also zb eine 3000er-Generation für Notebooks? Falls ja hätte ich keine Schmerzen damit dementsprechend lange zu warten, ich muss ja nicht zwingend schnell neu kaufen, habe ja noch meine beiden Geräte :) .

@Sk0b0ld:

Bin mit allem was du sagst zu 100% bei dir, bis auf einen Punkt :

Zitat

Klar laufen einigen Titel damit bzw. skalieren zum Teil, jedoch hält sich der Performance-Vorteil in Grenzen, wenn überhaupt einer besteht.

Also ich kann nur von mir bzw. meinen eigenen Erfahrungen sprechen, die ich mit SLI gemacht habe bei meinen beiden 18 Zöllern. Spiele, die Multi GPU-Betrieb unterstützt haben(AFR 1 und 2 zähle ich jetzt mal dazu), wie zb Crysis, was du als Beispiel nennst(in meinem Fall Crysis 3), haben durch die Nutzung von 2 Grafikkarten auf meinen Geräten einen ERHEBLICHEN!! Leistungszuwachs erfahren. Mit nur einer GPU hätte ich deutlich weniger fps gehabt bei gleichen Grafik-Details.  Darum bedauere ich es sehr, dass die Hard-und Software-Industrie sich von einer Technologie verabschiedet, die absolut zufriedenstellend funktioniert hat, sofern man sie fachmännisch und professionell umsetzte wie zb. in Crysis 3. Mikroruckler waren doch am Ende nicht mehr wirklich das Thema, das hatte man doch gut in den Griff bekommen.

Zu Intel : Ja, ich persönlich hoffe auch, dass die Basis wieder von Intel sein wird, ich persönlich stehe nicht so sehr auf AMD, ist aber wohl eher eine Glaubensfrage.

@Ludo:

Zitat

Nicht alles was verkauft wird muß auch "Sinn" machen : siehe Porsche 911 ?

Das stimmt, aber dennoch wird es übergroße Notebooks eher nicht mehr geben, der Trend geht in eine andere Richtung.

@captn.ko:

Zitat

extrem schade. Ich wäre der erste der ein 18 Zoll, 120Hz, QHD Alienware bestellen würde.  :(

Da würde ich definitiv ebenfalls sofort zuschlagen, ja :) .

Zitat

....dann kann man SLI leider langsam als tot bezeichnen.

Das ist leider so, aber nicht, weil es hätte sterben müssen, man hat es sterben lassen, weil man keine Lust mehr drauf hatte. Der "Mehrgewinn" bzw. Profit ist wohl manchen Herrschaften zu gering ausgefallen, denn letztendlich geht es doch meistens nur um Kohle und um nichts anderes.

Zitat

Kühltechnisch eigentlich kein Problem. Mit der Vapor Chamber Heatsink bekommt es CLevo auch hin 2x 200W GTX 1080 gut zu kühlen und ne Desktop CPU.

Natürlich ging das alles wenn man denn wollte, gar kein Problem. Aber man will nicht, DAS ist das Problem :( .

Zitat

Mit gutem Support wäre SLI in 18 Zoll einfach toll...

Das ist es auch, ohne Frage :) . Darum wünsche ich mir insgeheim einen würdigen Nachfolger des Alienware 18, gerne dann auch nur mit einer einzelnen, jedoch dafür sehr leistungsstarken Grafikkarte, da SLI im Moment definitiv bis auf wenige Ausnahmen leider nicht mehr wirklich Sinn macht :( .

Gruß

Jörg

Bearbeitet von Jörg
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 1 Stunde schrieb Jörg:
Zitat

Nicht alles was verkauft wird muß auch "Sinn" machen : siehe Porsche 911 ?

Das stimmt, aber dennoch wird es übergroße Notebooks eher nicht mehr geben, der Trend geht in eine andere Richtung.

Über das Thema habe ich mich schon mehrfach geäußert. Dieses ständige Vergleichen mit komplett computerfremden Themen ist einfach fehl am Platz und hat's nicht mit dem eigentlichen Thema zu tun. Genau solche Ausschweifungen führen dazu, dass es in einem Thread zu Off-Topic Diskussionen kommt und das sollte ja nicht unser Ziel sein.

 

vor 1 Stunde schrieb Jörg:

Das ist leider so, aber nicht, weil es hätte sterben müssen, man hat es sterben lassen, weil man keine Lust mehr drauf hatte. Der "Mehrgewinn" bzw. Profit ist wohl manchen Herrschaften zu gering ausgefallen, denn letztendlich geht es doch meistens nur um Kohle und um nichts anderes.

Zu dem SLI-Thema und Zukunft, Skalierung mit Game-Engine, API usw. würde ja schon alles wichtige gesagt. Deinen angesprochenen Punkt aber, muss man vielleicht mal von einer anderen Seite betrachten. Das, was früher zwei GPUs bewältigt haben, versucht man heute an Leistung in einen Chip zu pressen. Guck dir mal bitte die DIE Größen und das VRM an. GPUs mit teilweise 4 Stromanschlüssen (1x PCIe, 3x 8-Pin oder 2x 8-Pin + 1x 6-Pin) sind keine Seltenheit mehr. Sowohl aus technischer Sicht als auch aus der Leistungssicht ist das auf jeden Fall besser alles auf einem PCB zu haben. Leider ist das aber auch mit ein Grund für den enorm hohen Anstieg der Preise. Mit dem neuen 3000er Line-up von Nvidia soll die DIE Größe trotz kleinerem Fertigungsverfahren (Lithografie) nochmals anwachsen.

Ein weiterer Punkt von SLI war die Ineffizienz. Zwei GPUs bedeuteten ja leider nicht gleich doppelte GPU-Power. Nvidia hatte zwar versucht mit NV-Link dem ganzen noch Leben einzuhauchen und die Skalierung etwas effizienter zu machen, aber dennoch hat es nichts genützt, weil keiner Bock hatte dafür den passenden Programmcode zu schreiben. Spielehersteller entwickeln immer öfter Plattform-übergreifend und in den Konsolen war das ja ohnehin nie ein Thema.

Der angesprochene Punkt für Produktivbetrieb mit Rendern, CAD usw. wird ja nach wie vor eingesetzt und bezieht sich sowieso mehr auf die Quadro-GPUs.

Link zu diesem Kommentar
Auf anderen Seiten teilen

@Sk0b0ld:

Alles richtig was du sagst, danke für deine faire Kritik :) . Natürlich ist es immer besser, einen einzelnen, großen, leistungsstarken Grafikchip zu haben als 2 kleinere, die in einem System mehr oder weniger aufwendig miteinander kommunizieren und arbeiten müssen, das ist auch mir vollkommen klar und absolut nachvollziehbar. Darum muss auch ich wohl oder übel langsam umdenken. Mein Denkmuster ist halt immer noch auf die Verteilung einer Last bzw. von Berechnungen auf mehrere physisch voneinander unabhängige Grafik-Komponenten ausgerichtet, was rein kühltechnisch gesehen , je nach Situation durchaus Vorteile mit sich bringen kann. Ausserdem bringen 2 oder mehrere leistungsstarke Einzel-Chips, die man miteinander koppeln kann, zumindest rein theoretisch immer noch mehr Leistung als nur ein einzelner, natürlich NUR unter der Vorrausetzung, dass man es vernünftig umsetzt. Vielleicht nicht immer die doppelte Leistung, das mag sein, aber doch schon mehr als ein einzelner. Hätte man einen Multi-GPU-Betrieb weiterhin unterstützt, so hätte jeder einzelne Kunde, der sich einen Desktop PC oder ein Notebook zulegen möchte, für sich selber überlegen können, ob es ihm den Mehrpreis des Systems wert ist oder halt eben nicht.

Gruß

Jörg

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich hätte aber gern 2 große dicke Grafikchips :P aber halt nicht wenn einer die ganze Zeit rumgammelt

@Sk0b0ld 100% Skalierung selten, das stimmt. Aber 50-80% sehr häufig.

Bearbeitet von captn.ko
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 8 Minuten schrieb captn.ko:

Aber 50-80% sehr häufig.

Also ich habe mir jetzt verschiedene Tests, Reviews usw. angeschaut, weil ich das gern mal wissen wollte.

Quelle

 

SLi1.thumb.jpg.e9d586c618e47b30e6114d976e87d743.jpgSLi2.thumb.jpg.36c18382edd0b7e442796c4703022ab0.jpgSLi3.thumb.jpg.a27020e90696f65ca1de7ff9a16c6e26.jpg

 

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

@Sk0b0ld:

Danke für diese Tabelle, die auch für mich interessant ist. Man sieht, dass ein möglicher Leistungszuwachs mit SLI von mehreren Faktoren abhängig ist, vor allen Dingen ganz stark von der verwendeten Auflösung, vielleicht aber auch von den verwendeten Grakas oder vom Treiber .Da gibt es ja schon extreme Unterschiede. Ob man nun SIi favorisiert oder nicht hängt sehr wahrscheinlich aber auch von den fps ab, die man anstrebt bzw. sich wünscht. Bei meinen Geräten sind das 60fps im Zusammenspiel mit V-Sync. Das ist heutzutage nicht mehr viel, ich weiß, aber für mich reicht es nachwievor. Dank SLI konnte ich bei einigen meiner Spiele diese 60fps auch erreichen, ohne wäre es nicht möglich gewesen oder aber ich hätte die Details heruntersetzen müssen.

Gruß

Jörg

Link zu diesem Kommentar
Auf anderen Seiten teilen

Guten Abend,

 

bin ja selber neuerer Besitzer eines Area51m, fällt das nur mir auf, oder findet ihr nicht auch, dass das Display zu dunkel ist, gerade mal auf der Höchsten Helligkeitsstufe finde ich akzeptabel?

Bearbeitet von SpecialAgentFoxMulder
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 2 Stunden schrieb Sk0b0ld:

Also ich habe mir jetzt verschiedene Tests, Reviews usw. angeschaut, weil ich das gern mal wissen wollte.

Quelle

 

SLi1.thumb.jpg.e9d586c618e47b30e6114d976e87d743.jpgSLi2.thumb.jpg.36c18382edd0b7e442796c4703022ab0.jpgSLi3.thumb.jpg.a27020e90696f65ca1de7ff9a16c6e26.jpg

 

 

Ich will nur kurz da drauf eingehen, das es schon Recht OT ist. Da ich selber kein SLI aktuell mehr habe und daher keine eigenen Tests mehr machen kann will ich da auch keine große Diskussion vom Zaun brechen. Von ,,Link Fights,, halte ich nicht besonders viel. Wir können das aber gern über PM, extra Thread oder WhatsApp weiter ausführen :)

Ich hatte SLI seit der 8800GTX selber im Einsatz. 8800GTX 3Way SLI, GTX280 3Way, GTX 480 SLI, GTX680 SLI, GTX780Ti SLI, GTX1080 SLI und 1080TI SLI. Kann daher auch auf eine gewisse Erfahrung mit der Technologie zurück greifen. 

Ein paar Gedanken zum Thema und speziell zu deinem Link: 

- Multi GPU war schon immer ein CPU Fresser, war die CPU zu schwach, waren die gpus nicht voll ausgelastet und die Skalierung zur Single GPU sinkt. Auflösung behebt das Problem nicht, sondern überdeckt es

- schon mein GTX480 SLI ist mit einem i7 3930K (6 Kerner) @5Ghz! Regelmäßig im CPU Limit unterwegs gewesen 

- in deinem Link nutzen sie für ein 1080TI SLI Gespann einem alten 6700k (4 Kerner), daher wundert mich die teils schlechte Skalierung nicht dazu nur 2x 8Fach angebunden. Hier kann dann auch die Bandbreite limitieren. Ich hatte meine SLI Systeme immer auf HEDT Basis mit 3x oder 2x 16Fach Anbindung.

- mein 1080Ti SlI lief mit einem 4.7ghz 8 Kerner und war selbst in 3440x1440 ohne DSR fast ständig im CPU Limit

- wenn die da nur mit dem Stock Treiber getestet haben wundert mich das Ergebnis ebenfalls nicht. Für SLI ist Optimierung mit NV Inspektor Pflicht. Einige Spiele laufen nur dann mit SLI, da im Treiber kein Profil hinterlegt ist. Mit dem Inspektor kann man dann ein Profil erstellen oder vorhandene Tweaken

- ich sollte meine Aussage mit den 50-80% spezifizieren: die Spiele die ich spielte, skalierten fast immer sehr gut. Ich kann natürlich nicht für alle Spiele sprechen. 

- auch weil viele DX12 Titel kein SLI nutzen, ist es ja tot. 

- mit entsprechender Optimierung läuft dann zb. Auch RS Siege in SLI.

 

Bearbeitet von captn.ko
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 35 Minuten schrieb SpecialAgentFoxMulder:

Guten Abend,

 

bin ja selber neuerer Besitzer eines Area51m, fällt das nur mir auf, oder findet ihr nicht auch, dass das Display zu dunkel ist, gerade mal auf der Höchsten Helligkeitsstufe finde ich akzeptabel?

Hallo welches Panel hast du denn verbaut? 

Ich finde das Chi Mai Panel 144Hz G-Sync ausreichend hell. Nutze meist nur 1/4 der Helligkeit. 

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor einer Stunde schrieb marcohf78:

Hallo welches Panel hast du denn verbaut? 

Ich finde das Chi Mai Panel 144Hz G-Sync ausreichend hell. Nutze meist nur 1/4 der Helligkeit. 

Hi,

 

Habe das 17,3" FHD (1.920 x 1.080) 144 Hz, IPS, NVIDIA G-SYNC, Eyesafe(R) Display Technologie und Tobii Eyetracking (so steht es auf dem Verkaufszettel)

Finde es zu dunkel, vielleicht habe ich ja auch einfach ein Freitags Display erwischt. ?

 

Bearbeitet von SpecialAgentFoxMulder
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 1 Stunde schrieb captn.ko:

Ich will nur kurz da drauf eingehen, das es schon Recht OT ist. Da ich selber kein SLI aktuell mehr habe und daher keine eigenen Tests mehr machen kann will ich da auch keine große Diskussion vom Zaun brechen. Von ,,Link Fights,, halte ich nicht besonders viel. Wir können das aber gern über PM, extra Thread oder WhatsApp weiter ausführen

@Jörg, @captn.ko, Ich denke, großartig ausdiskutieren brauchen wir das SLI Thema auch nicht mehr, auch wenn man gerne noch über die alte Zeiten spricht. Ob's nun 80% mehr sind oder nur 10%, ändert nichts an der heutigen Situation, dass Multi-GPU Systeme, zumindest vorerst für Gaming uninteressant bleiben wird. Das einzige, was ich mir in Zukunft vielleicht noch vorstellen könnte, wäre eine Multi-GPU auf einem einzigen PCB. So wie die Readon Pro Vega II DUO im Mac Pro.

 

radeon_pro_vega_ii_duo_vega_20.thumb.png.381162e60dfda2f379b27865ca5069ba.png

 

Soweit ich weiß, gab es solche Ansätze damals schon (z.B. EVGA GTX 560Ti 2Win), aber auch diese haben sich nicht wirklich durchgesetzt. Mal schauen was die Zukunft bringt. Warten wir erstmal Nvidias 3.000er Serie ab.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor einer Stunde schrieb SpecialAgentFoxMulder:

Habe das 17,3" FHD (1.920 x 1.080) 144 Hz, IPS, NVIDIA G-SYNC, Eyesafe(R) Display Technologie und Tobii Eyetracking (so steht es auf dem Verkaufszettel)

Das habe ich auch. Wie ist denn der Raum beleuchtet?

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 1 Minute schrieb marcohf78:

Das habe ich auch. Wie ist denn der Raum beleuchtet?

Bloße eine Stehlampe an, die eine LED drinn hat, Licht wie 35W, verbrauch glaube 8W.

Dann mein 65" QLED TV an, für mich persönlich ausreichend, aber am Tag wenn die Sonne scheint, reicht mittlere oder gar 90% Helligkeit nicht mehr aus, da muss ich immer auf 100% das Licht des Laptop stellen.

Habe mal online ein Test gelesen das die Ausleuchtung nicht so gut beim Area51m abgeschnitten haben soll.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Es wurden drei verschiedene Panel im A51M verbaut. LG, AUO und aktuell nur noch Chi-Mei. Ich hatte alle drei, und wirklich dunkel fand ich keines. Tagsüber reichen mir auch Max 80% Displayhelligkeit vollkommen aus. Das aktuelle Chi-Mei sollte ca 350 Candela Helligkeit schaffen, was eben vollkommen ausreichend sein sollte.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Moin zusammen,

kürzlich habe ich ein Alienware Area 51m gebraucht erstanden. Das Gerät habe ich bei eBay Kleinanzeigen gekauft. Eine Rechnung ist nicht vorhanden. Alles funktioniert tadellos und mit etwas putzen ist das Gerät nun auch wie neu :D

Da die Garantie am 15.02.20 abgelaufen ist wollte ich diese um 1 Jahr verlängern. Nun bin ich auf zwei Themen gestoßen:

  1. Das Gerät hat offensichtlich zwei Service Tags. Im Support Assist wird ein anderer angezeigt als wenn ich es über die Dell Webseite ermitteln lasse. Kann ein Gerät überhaupt zwei Service-Tags haben?
  2. Ein Service-Tag (der aus dem Support Assist) ist England zugeordnet. Laut Telefon-Support muss ich diesen erstmal nach Deutschland transferieren. Das kann bis zu 14 Tage dauern. Der andere Service Tag ist aus Deutschland. Habe beide nun über den Service-Tag Transfer mir zuordnen lassen (ongoing).

Jemand schon mal was davon gehört?

Kleiner Nachtrag: Im BIOS steht der Service-Tag, welcher NICHT im Support Assist steht. 

Mit dem Service-Tag aus dem BIOS sieht das ganze doch gleich schon viel besser aus :) 

image.png.022b888af595048d4dece499b8aca729.png

Die Frage ist nur, warum der Service-Tag im Support Assist anders angezeigt wird als im BIOS.

Bearbeitet von pitha1337
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 13 Minuten schrieb pitha1337:
  • Das Gerät hat offensichtlich zwei Service Tags. Im Support Assist wird ein anderer angezeigt als wenn ich es über die Dell Webseite ermitteln lasse. Kann ein Gerät überhaupt zwei Service-Tags haben?
  • Ein Service-Tag (der aus dem Support Assist) ist England zugeordnet. Laut Telefon-Support muss ich diesen erstmal nach Deutschland transferieren. Das kann bis zu 14 Tage dauern. Der andere Service Tag ist aus Deutschland. Habe beide nun über den Service-Tag Transfer mir zuordnen lassen (ongoing)

Welcher Service-Tag Nr von den beiden steht denn im BIOS? (Direkt erste Seite)

Anhand der Service-Tag Nr kannst du via "Dell Übertragung von Serviceverträgen und Eigentumsrechten" das Gerät auf deinen Namen übertragen und dann auch die Garantie verlängern usw. Eine Rechnung brauchst du dafür nicht. So habe ich das bislang immer gemacht und nie Probleme gehabt. Einziger Nachteil, es dauert immer ein paar Wochen bis alle Daten bei Dell im System hinterlegt sind.

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

gute Frage, aber entscheidend ist was im Bios steht. Ist die Tag im Bios die gleiche wie auf dem Gehäuse?

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor einer Stunde schrieb captn.ko:

gute Frage, aber entscheidend ist was im Bios steht. Ist die Tag im Bios die gleiche wie auf dem Gehäuse?

Auf dem Gehäuseboden steht der Service-Tag aus dem BIOS. Habt ihr da auch so einen kleinen Aufkleber? Sieht original aus, jedoch wie "drauf geklebt". Ähnlich als wenn man die Adresse im perso ändern lässt. Kurz gesagt, der Service-Tag ist nicht ins Plastik eingraviert. Kann ja sein, dass das Mainboard mal komplett getauscht worden ist und sich der Service Tag dadurch ändert?

Habe nun den Support Assist neu installiert und es wird nur noch die "richtige" Service-Tag angezeigt. Prima noch 10 Monate Premium Support :)

Bearbeitet von pitha1337
Link zu diesem Kommentar
Auf anderen Seiten teilen

Bei Call of Duty Warzone erreiche ich mit der GPU 75 Grad und mit dem Prozessor 100 Grad, ich kann mir nicht vorstellen das das auf Dauer gesund sein kann. ^^

Bearbeitet von SpecialAgentFoxMulder
Link zu diesem Kommentar
Auf anderen Seiten teilen

Nabend, schonmal jemand von euch (parallel zu Windows) macOS bzw. Hackintosh auf dem A51m installiert? Fände das interessant, auch wenn die aktuellen GPUs von Nvidia nicht unterstützt werden. Mit der Intel-GPU müsste es aber eigentlich funktionieren. Wichtig wäre auch noch WLAN und Audio. Für meine Zwecke müsste Eyetracking, Touchpad, LAN, Mikrofon, Webcam nicht mal funktionieren. Bisher habe ich es nur in einer VM am Laufen, aber da funktioniert keine Hardware-Beschleunigung (somit ruckelt es beispielsweise, wenn man Fenster verschiebt usw.).

Bearbeitet von Silentfan
Link zu diesem Kommentar
Auf anderen Seiten teilen

soweit ich weiß ist die Intel GPU nicht mit dem Display verbunden. Wenn dann also nur über ein USBC Display

Link zu diesem Kommentar
Auf anderen Seiten teilen

jup

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

  • Sk0b0ld hat Thema gesperrt
  • Angus hat Thema entsperrt

Dein Kommentar

Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.
Hinweis: Dein Beitrag muss vom Moderator freigeschaltet werden, bevor er sichtbar wird.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Nur 75 Emojis sind erlaubt.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...

Wichtige Information

Bitte beachten Sie folgende Informationen: Nutzungsbedingungen, Datenschutzerklärung und Community-Regeln. Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.