Jump to content

Leaderboard


Popular Content

Showing content with the highest reputation since 03/31/2020 in all areas

  1. 4 points
    Dieses Thema ist schon relativ lange bekannt und wird auch schon länger in diversen Forenkreisen diskutiert. In unser Forum hat es Plundervolt, zumindest bis jetzt, noch nicht geschafft, da die daraus resultierenden Nachteile aktuell keine Alienware-Geräte betreffen, jedenfalls noch. Da sich das aber in Zukunft ändern könnte und das zum Teil für uns erhebliche Nachteile hat, wollte ich das Thema zumindest schon mal ansprechen. Was genau ist Plundervolt? Plundervolt bezeichnet eine Sicherheitslücke bei Intel Prozessoren, wodurch es möglich ist Schadcode auszuführen. Die Sicherheitslücke betrifft Intel's Software Guard Extensions, abgekürzt auch SGX genannt. Dieser Punkt befindet sich bei uns im BIOS unter dem Reiter Advanced. Welche Nachteile hat es für mich? Intel und diverse andere Hersteller haben schon reagiert und bieten BIOS-Updates an, die wie üblich, irgendwelche Sicherheitslücken schließen. Das Problem ist dabei, dass man durch so ein Update, die Möglichkeit verliert, irgendwelche Änderungen an der CPU über ThrottleStop oder Intel XTU vorzunehmen. Natürlich auch über's BIOS selbst. Was bedeutet, dass man unter anderem nicht mehr Undervolten oder andere Voltage-/ Core-Settings durchführen kann. Ich kann jetzt nicht sagen, welche Hersteller genau damit schon angefangen haben. Soweit ich weiß, trifft das zumindest schon mal auf HP zu. User mit den Omen Notebooks kotzen sich in Foren (z.B. NBRF) darüber aus, dass die CPU ohne undervolting deutlich heißer läuft (logisch) und es keine Möglichkeit mehr gibt, das Setting mit dem SGX Update anzupassen. Außer man downgraded die BIOS-Versoin, sofern das möglich ist. Mittlerweile finden sich auch immer mehr Beiträge im Alienware-Bereich des NBRF, wo dieser Punkt jedesmal nach einem BIOS Update gefragt wird. -Beispiel- Wenn ich jetzt an meinen R5 und dem i9-8950HK denke, dann wäre so eine Beschränkung ziemlich besch***en für mein System und ich denke, ich spreche da nicht nur für mich alleine. Das BIOS Updates immer mit einer gewissen Vorsicht zu genießen sind, ist an sich nichts neues. Wenn jetzt aber solche Einschränkungen mit den BIOS Updates kommen, würde ich mir ein Update zwei mal überlegen. Deshalb wollte ich schon mal sicherheitshalber drauf hinweisen. Wer sich in das Thema weiter einlesen möchte und detaillierte Informationen sucht, kann sich folgende Links anschauen: Weiterführende Links und Quellen: - Plundervolt.com - ZDnet.com (Plundervolt) - Bob (Youtube) - Intel Software Guard eXtensions (Intel)
  2. 4 points
    im Bios UEFI Capsule updates abschalten. Dann kann Dell dir nicht über Windows Updates das Bios Update reindrücken.
  3. 3 points
    In den letzten Tagen und Wochen kamen immer Infos zu den neuen mobilen CPUs und Grafikkarten, auch viele Benchmarks usw. Daher wollte ich mal kurz das Wichtigste zusammenfassen und meine persönliche Einschätzung dazu äußern. Kurz der Überblick von AMD, Intel und Nvidia AMD's U- & H-Series: Intel's 10th Gen CPUs: Nvidia Super GPUs: So viel grob zur Übersicht. Weitere Detailinformationen kann sich jeder dann bei Bedarf selbst raussuchen. 1. AMD Aktuell wird AMD in den höchsten Tönen gelobt und die CPU Performance in den bekannten Benchmarks zeigen auch respektable Ergebnisse. Jedoch stell ich mir die Frage, wie die CPU in Games performt? Was bringen mir tolle Cincebench-Highscores und schnellere Renderzeiten, wenn mein Haupteinsatzzweck Gaming ist? Ich will AMD an der Stelle gar nicht schlecht reden, eher im Gegenteil, endlich schaffen sie es Intel ordentlich die Stirn zu bieten, so das Intel handeln muss. Trotzdem hat die Vergangenheit gezeigt, dass Intel im Gaming immer noch die Nase vorn hat. Das wird sich auch, nach allen Infos, die bis lang so bislang gelesen und gehört habe, nicht ändern. Auf den Grund komme ich gleich noch mal zu sprechen. Dennoch bin ich gespannt, wie die AMD sich im mobilen Gaming-Segment schlägt. 2. Intel Was bei AMD gelobt wird, wird bei Intel kritisiert. Immernoch 14nm, veraltete Architektur, powerhungrig etc. Jedoch finde ich das Line-Up gar nicht mal so schlecht. Schade ist natürlich, dass nur der i9 einen offenen Multi hat. Hier hätte ich mir persönlich wenigstens noch den i7-10785H als K-Variante gewünscht, aber gut, so ist das nun mal. Die angegeben Takt- und TDP-Angaben sind immer so ne Sache bei Intel. Vor allem bin mal auf die Kühllösungen der Notebook-Hersteller vom i9-10980HK gespannt. 3.Nvidia Hier finde ich die Situation etwas schwieriger zu bewerten. Einerseits hätte man sich das auch fast sparen können, andererseits sind Optimierungen im Hardware-Bereich gang und gebe und eigentlich nichts neues. Ich sehe es eher positiv. Wenn es Optimierungspotenzial gibt, warum sollte man es dem Kunden verwehren? Dann haben die Super halt ein bisschen mehr Leistung, ist doch schön für uns Gamer. Ob die Super-Karten heißer laufen, muss man abwarten. Bei mir im Desktop-PC hatte ich beide Karten drin und ich habe temperaturmäßig keinen nennenswerten Unterschied festgestellt. 4. Was könnte das für Alienware bedeuten? Wie ich mich schon bereits geäußert hatte, gehe ich ganz stark davon aus, dass Alienware im mobilen Segment komplett mit Intel ausgestattet sein wird. Grund dafür ist zum Beispiel das neue Line-up von ASUS: Schaut man sich die High-End Sparte mit RTX 2070 und 2080 an, so finden sich nur Intel CPUs in Kombination damit. AMD wird es maximal nur mit der RTX 2060 geben, zumindest vorerst. Auch Bob hat sich zu dem Thema kürzlich geäußert (Link). Interessant ist auch, dass ASUS all ihre Gaming-Notebooks mit Intels 10th Gen CPU mit LM ausliefern will. (ASUS Announces LM) Um das zu bewerkstelligen hat ASUS das Auftragen von LM extra in die Produktion mit aufgenommen und patentiertes System entworfen (Patented Process LM). Schon interessant, was sich die Hersteller so einfallen lassen, aber Leistung muss nun mal irgendwie gekühlt werden. Bleibt abzuwarten was Alienware jetzt macht. AMD CPUs kann ich mir nach jetzigem Wissensstand einfach nicht vorstellen. RTX 2080 Super und i9 wird's bei Alienware sicherlich geben, jedoch frage ich mich, ob sie den Schritt mit "LM ab Werk" wagen. Ich persönlich glaub da nicht dran. @einsteinchen, ich habe die Nvidia-Grafik noch mal mit reingenommen damit alles zusammen in einem Beitrag bleibt.
  4. 3 points
    @pitha1337 & @Mylo07 Das hatten wir doch die Tage erst, bzw. hat @captn.ko sich hierzu klar geäußert:
  5. 2 points
    Über die Namensgebung von Nvidia, Intel und Co. brauchen wir uns nicht unterhalten. Gerade Nvidia hat 2019 ordentlich für Chaos gesorgt. Neben den regulären RTX Karten, kamen dann Super-Karten + die 16XXer Reihe (1650, 1660 Ti, 1660 Ti Max-Q und und und). Da blickt auch keine Sau mehr durch. Bleiben wir aber im High-End Segment der Notebooks, sagen wir mal RTX 2070 und RTX 2080, kann man das ganze grob in 2 Klassen aufteilen, zumindest aus Performance-Sicht. RTX 20XX Max-Q (85w - 110w) RTX 20XX non-MQ (140w - 200w) Die MQ Versionen werden meinst in den Thin & Light Notebooks eingesetzt (Razer Blade, Alienware m15/ m17 etc.). Zwar ist der Chip (DIE) der selbe wie bei den Desktop-Pedants, jedoch laufen die GPUs aufgrund der strom- und thermaltechnischen Voraussetzung (VRM + Netzteil) mit geringerem Takt und anderen Limits. Die non-MQ Karten, die teilweise eine Leistungsaufnahme bis 200w haben, unterscheiden sich zumindest leistungstechnisch, nicht mal all zu sehr von den Desktop-Karten. Jedenfalls wenn man Nvidias RTX 2080 FE als Referenz nimmt (215w - 225w). Partnerkarten wie meine MSI RTX 2080S beispielsweise haben standardmäßig eine max. Leistungsaufnahme von 250w. Logisch das man mit mehr Strom auch mehr Leistung rausziehen kann. Da der Chip bei allen Karten der gleiche ist, (was wahrscheinlich mit ein Grund ist für den Wegfall des Kürzels ist) definiert sich die Leistung mehr über VRM, Kühlung und Limits. Ein weiterer Grund für die Namensgebung könnten Marketinggründe sein. So als ob Nvidia sagen möchte, dass die Notebook-GPUs, den Desktop-Pedants im nichts nachstehen. Das Ergebnis war mit dem 200w Limit oder? Wobei man fairerweise sagen muss, dass deine Scores mit zu den höchsten überhaupt gehören und nicht unbedingt als Referenz für den Standard-User genommen werden können, falls FoxMulder jetzt anfängt zu vergleichen. Ist halt so ähnlich wie die Kühlwerte von meinem R5, die für die meisten User unrealistisch sind. Zeigt aber sehr wohl, was tatsächlich möglich ist, wenn man nur will. Aber ja, so im groben kann ich das wohl bestätigen mit den +10%. Mit meiner 2080S und leichtem OC (+110/ +750) hole ich bei FS 32.237 Grafikpunkte, was irgendwo 10-12% entspricht, wobei ich die Kotzgrenze meiner Karte noch nicht ausprobiert habe. Zocken mit den Einstellungen geht problemlos, wobei der Stromverbrauch zu dem Plus an FPS in keinem gesunden Verhältnis mehr steht.
  6. 2 points
    Das liegt daran, dass die Karten auf den gleichen Chips basieren, wie ihre Desktop Vorbilder. Hier findest du die Erklärung zur 2080. Einzig die Taktraten werden angepasst und da macht jeder Hersteller auch sein eigenes Ding - je nach Kühlungs- und Leistungsreserven.
  7. 2 points
    Öhm es soll schon die oben genannte Hardware sein
  8. 1 point
    Ich will nur kurz da drauf eingehen, das es schon Recht OT ist. Da ich selber kein SLI aktuell mehr habe und daher keine eigenen Tests mehr machen kann will ich da auch keine große Diskussion vom Zaun brechen. Von ,,Link Fights,, halte ich nicht besonders viel. Wir können das aber gern über PM, extra Thread oder WhatsApp weiter ausführen Ich hatte SLI seit der 8800GTX selber im Einsatz. 8800GTX 3Way SLI, GTX280 3Way, GTX 480 SLI, GTX680 SLI, GTX780Ti SLI, GTX1080 SLI und 1080TI SLI. Kann daher auch auf eine gewisse Erfahrung mit der Technologie zurück greifen. Ein paar Gedanken zum Thema und speziell zu deinem Link: - Multi GPU war schon immer ein CPU Fresser, war die CPU zu schwach, waren die gpus nicht voll ausgelastet und die Skalierung zur Single GPU sinkt. Auflösung behebt das Problem nicht, sondern überdeckt es - schon mein GTX480 SLI ist mit einem i7 3930K (6 Kerner) @5Ghz! Regelmäßig im CPU Limit unterwegs gewesen - in deinem Link nutzen sie für ein 1080TI SLI Gespann einem alten 6700k (4 Kerner), daher wundert mich die teils schlechte Skalierung nicht dazu nur 2x 8Fach angebunden. Hier kann dann auch die Bandbreite limitieren. Ich hatte meine SLI Systeme immer auf HEDT Basis mit 3x oder 2x 16Fach Anbindung. - mein 1080Ti SlI lief mit einem 4.7ghz 8 Kerner und war selbst in 3440x1440 ohne DSR fast ständig im CPU Limit - wenn die da nur mit dem Stock Treiber getestet haben wundert mich das Ergebnis ebenfalls nicht. Für SLI ist Optimierung mit NV Inspektor Pflicht. Einige Spiele laufen nur dann mit SLI, da im Treiber kein Profil hinterlegt ist. Mit dem Inspektor kann man dann ein Profil erstellen oder vorhandene Tweaken - ich sollte meine Aussage mit den 50-80% spezifizieren: die Spiele die ich spielte, skalierten fast immer sehr gut. Ich kann natürlich nicht für alle Spiele sprechen. - auch weil viele DX12 Titel kein SLI nutzen, ist es ja tot. - mit entsprechender Optimierung läuft dann zb. Auch RS Siege in SLI.
  9. 1 point
    Also ich habe mir jetzt verschiedene Tests, Reviews usw. angeschaut, weil ich das gern mal wissen wollte. Quelle
  10. 1 point
    Ich hätte aber gern 2 große dicke Grafikchips aber halt nicht wenn einer die ganze Zeit rumgammelt @Sk0b0ld 100% Skalierung selten, das stimmt. Aber 50-80% sehr häufig.
  11. 1 point
    Das stimmt, aber dennoch wird es übergroße Notebooks eher nicht mehr geben, der Trend geht in eine andere Richtung. Über das Thema habe ich mich schon mehrfach geäußert. Dieses ständige Vergleichen mit komplett computerfremden Themen ist einfach fehl am Platz und hat's nicht mit dem eigentlichen Thema zu tun. Genau solche Ausschweifungen führen dazu, dass es in einem Thread zu Off-Topic Diskussionen kommt und das sollte ja nicht unser Ziel sein. Zu dem SLI-Thema und Zukunft, Skalierung mit Game-Engine, API usw. würde ja schon alles wichtige gesagt. Deinen angesprochenen Punkt aber, muss man vielleicht mal von einer anderen Seite betrachten. Das, was früher zwei GPUs bewältigt haben, versucht man heute an Leistung in einen Chip zu pressen. Guck dir mal bitte die DIE Größen und das VRM an. GPUs mit teilweise 4 Stromanschlüssen (1x PCIe, 3x 8-Pin oder 2x 8-Pin + 1x 6-Pin) sind keine Seltenheit mehr. Sowohl aus technischer Sicht als auch aus der Leistungssicht ist das auf jeden Fall besser alles auf einem PCB zu haben. Leider ist das aber auch mit ein Grund für den enorm hohen Anstieg der Preise. Mit dem neuen 3000er Line-up von Nvidia soll die DIE Größe trotz kleinerem Fertigungsverfahren (Lithografie) nochmals anwachsen. Ein weiterer Punkt von SLI war die Ineffizienz. Zwei GPUs bedeuteten ja leider nicht gleich doppelte GPU-Power. Nvidia hatte zwar versucht mit NV-Link dem ganzen noch Leben einzuhauchen und die Skalierung etwas effizienter zu machen, aber dennoch hat es nichts genützt, weil keiner Bock hatte dafür den passenden Programmcode zu schreiben. Spielehersteller entwickeln immer öfter Plattform-übergreifend und in den Konsolen war das ja ohnehin nie ein Thema. Der angesprochene Punkt für Produktivbetrieb mit Rendern, CAD usw. wird ja nach wie vor eingesetzt und bezieht sich sowieso mehr auf die Quadro-GPUs.
  12. 1 point
    na klar Dazu noch die VBios Versionen 180w und 200W. Dann kannst mal testen was dir mehr liegt. Alienware_Area-51m_1.8.1.EXE RTX2080_180W_VBIOS_1.0.0.5.exe RTX2080_200W_VBIOS_v1.0.0.3.exe
  13. 1 point
    glaub die 1.7.3 geht Gsync wieder. jap dann kannst du ja das aktuellste nutzen
  14. 1 point
    Du kannst gsync glaub ich aktivieren aber das Bild flackert dann wenn gsync die Frequenz regeln will, soweit ich das in Erinnerung hab. 🧐
  15. 1 point
    Prüfe im BIOS bitte ob du "UEFI Capsule updates" deaktiviert hast und mache den ganzen Prozess noch einmal mit dem downgrade. Prüfe danach noch einmal das "UEFI Capsule updates" Folgendes habe ich noch im Windows geändert:
  16. 1 point
    Yes, GF Experience am besten, grad bei älteren GPU-Laptop-Kombis, außen vor lassen. I.d.R. reicht der Treiber + PhysX aus (+ HD-Audio, wenn Du nen externen Bildschirm/TV dran hast). DDU ist sehr praktisch, Einsatz empfiehlt sich bei jeder Treiberneuinstallation! Hast Du auch mal nen ePSA-Test laufen lassen?
  17. 1 point
    Hallo, deine Grafikkarte scheint nicht defekt zu sein. Versuche mal folgende Punkte: 1. Dein Notebook immer mit Netzteil starten da sonst immer die interne Grafikkarte angesprochen wird. (Startet dein Notebook aktuell mit der Intel oder der GTX?) 2. Das Geforce Experience benötigst du eigentlich nicht. Die Treiber lassen sich ganz normal von der Nvidia Website runterladen. 3. Versuch mal die Tastenkombination FN + F5. Da kann man auf die andere Grafikkarte umschalten. 4. Der Bluescreen deutet auf einen fehlerhaften Treiber hin. Ich empfehle dieses Zusatzprogramm DDU zu deinstallieren. 5. Falls dass alles gar nichts hilft, mach eine komplette Windows Neuinstallation. Halt uns auf den Laufenden.
  18. 1 point
    Falls du downgraden möchtest so wie ich, dann schau dir mal folgendes Video an. Ich habe nun 200W und den vollen Boost. Bei BF5 habe ich 2Ghz auf GPU und maximal 78-79°C. Alles top also Habe aber auch Liquid Metal auf der GPU Eine Frage noch an die Experten Wie kann ich verhindern, dass Windows Update das neuere BIOS Update wieder drauf spielt? Habe nun schon ein bisschen was ausprobiert, aber irgendwie kommt es immer wieder...
  19. 1 point
    Mit 1.5.0 hält die 2080 den vollen Boost. Mit neueren BIOS wird bei 75 Grad der Takt gedrosselt. Zurück geht. Musst du Mal in der Suche nach BIOS downgrade suchen ist hier in Thread mehrfach verlinkt.
  20. 1 point
    PCGH - Super GPUs bei Notebooks Warst mal wieder schneller:) @Nuestra, ich würde dich in Zukunft bitten, bei so langen Links den Link-Button zu benutzen und deinem Link einen passenden Namen zu geben. Bei so langen Links wird die Ansicht bei Mobilgeräten schnell unübersichtlich und man muss mehr scrollen.
  21. 1 point
    das ist richtig. nur wenn hier nicht gefragt und geantwortet wird, nützt google auch nix.
  22. 1 point
    in dem Fall schon. Der Chip ist der gleiche. Die GTX 1080, 1070 und 1060 waren die ersten ,,mobilen,, Grafikkarten die vollständig mit den Desktop Pedants übereinstimmten. Daher auch kein mobile Kürzel mehr. ist das so? Das war bis einschließlich 980m so. Seit Pascal ist das vorbei Beispiel: Desktop 2080, 9900K https://www.3dmark.com/fs/17564146 Area51m https://www.3dmark.com/3dm/34584797? Bis auf einen einstelligen % Bereich sind die ,,mobilen,, GPU (je nach Kühlung vom Hersteller) genau so schnell wie ihre Gegenstücke. Bis Kotzgrenze übertaktete Desktop RTX2080 vielleicht +10%.
  23. 1 point
    Danke für's Feedback, Jörg. Naja, ich hatte ja schon mehrmals über die Wärmeleitpad- & Heatstink-Problematik bei dem m15 R1 berichtet -Link-. Da sieht der m17 leider nicht viel aus. Da kann man sich noch so viele Heatsinks nachbestellen, bringt nur nichts, wenn alle Pads immer vorinstalliert und somit festgeklebt sind. Reicht ja schon wenn 1-2 Pads die falsche Dicke haben und die Heatsink nicht tief genug auf den DIE kommt. Das ist auch nicht unbedingt ein Fehler, den man den "Technikern" vorwerfen kann, denn schließlich kann man nicht davon ausgehen, dass die über Jahre in einem markenbezogenem Forum sitzen und jede Schwachstelle, Unregelmäßigkeit einer Heatsink eines bestimmten Models kennen. Ich selber weiß das ja nur, weil ich das verhältnismäßig oft bei den AW-Geräten mache und in dem Zusammenhang auch viel teste. Deswegen gebe ich meine Erkenntnisse, Tipps usw. im Forum weiter, weil ich glaube, dass schon dem ein oder anderem helfen könnte. Wenn ich ganz viel Glück habe, schaut sich das ja vielleicht auch mal ein Techniker an 😆 Wenn die Kühlung aber passt, ist das Notebook wirklich klasse. Bin mit meinen m15 immer noch super zufrieden. Auch der m15 mit'm i9-8950HK und der RTX 2080 MQ war sehr gut. @Winstonblue, Was die Kühlgeschichte beim Area51m angeht, konnte ich bislang sehr positive Eindrücke sammeln. Für "Out-of-the-Box"-Verhältnisse sahen Paste und Pads bislang immer sehr gut aus.
  24. 1 point
    @Winstonblue: Du kannst das auch nicht wissen. DIE aber haben gemerkt, dass sie total verkackt haben, also blieb nur die Lösung in Form eines neuen Gerätes. Ah ok, dann geht es ja .Eigentlich hätte man dir 300 Euro zahlen müssen für den Ärger den du hattest bzw. als Strafe für deren Totalversagen an deinem Gerät, anders kann man das leider nicht nennen. Grundsätzlich ist es immer die gleiche Leier, bei Problemen muss man die richtigen Leute vor Ort haben, Leute mit Ahnung bzw. Fachkompetenz. Hat man diese Leute nicht oder gerät an die falschen, ist man der Gearschte. Hier im Forum gibt es diese Leute. Auch wenn ich @Sk0b0ld nicht persönlich kenne, bin ich dennoch ziemlich sicher, das er den wirklichen Grund deines Problemes gefunden und auch kompetent beseitigt hätte. Gruß Jörg
  25. 1 point
    Das Lesen nicht zu deinen größten Stärken gehört, hast du mir in der Vergangenheit schon einige male paar gezeigt. Daher weiße ich dich nochmals auf unsere Marktplatzregeln hin: Des Weiteren antwortest du auf eine nicht gestellte Frage. Er hat in keiner Zeile erwähnt, dass er mit der gesuchten Ausstattung ausschließlich spielen möchte oder ob irgendwas besser oder schlechter performt. Ist ja schön und gut, dass du dich im Forum so viel beteiligst, nur sollte das schon mit Sinn und Verstand passieren. Jeder weitere Kommentar, wird direkt gelöscht, der nicht den Marktplatzregeln entspricht. (siehe Anhang, unterster Abschnitt)
  26. 1 point
    Hätte man das vorher gewusst. Also nicht nur Treiber Update.
  27. 1 point
    Tja Dells Service halt. Oft leider wenig kompetent (zumindest am Telefon) aber extrem kulant. Viel Spaß mit dem A51m. Damit sollten deine Temperaturprobleme gelöst sein ^^
  28. 1 point
    Ich habe selten so einen lernresistenten User wie dich erlebt, Ludo. Du scheinst absolut keine Ahnung zu haben wie sich die Intels spezifizierten 95w TDP überhaupt zusammensetzen und wie die Messung nach Intel überhaupt gewertet wird. Denn wenn du das wüsstest, würdest du nicht so einen Stuss schreiben. Punkt: Wasser oder Luft Wenn die CPU nur für eine Wasserkühlung wäre, wie du schreibst, würde sie ja gar nicht im Area51m zum Einsatz kommen. Also ist diese Aussage von dir schon mal Blödsinn. Es hat nichts damit zu tun mit was du kühlst, sondern wie viel Watt (TDP) du wegkühlen kannst. Mit was du das am Ende machst, bleibt dir überlassen. Dann der von Caseking angesprochene Punkt. Erstmal musst du ne AIO haben, die überhaupt besser ist als ein potenter Luftkühler. Ich habe mein Setup so abgestimmt und gemoddet, dass das mein Luftkühler selbst ne 280er AIO wegsteckt. Hat also nichts mit Wasser oder Luft zu tun, sondern wie viel Watt deine Kühllösung abführen kann. Diese Aussage ist auf so vielen Ebenen falsch.... Das würde ja also bedeuten, dass selbst wenn die Intel CPU sich durch Intels Power Environment Settings (Speed Step & Speed Shift Technology) auf 8x runtertaktet und kaum Strom verbraucht, die 95w aber, wie du es sagst, immer gegeben wäre. Das ist völliger Unsinn und natürlich auch völlig unrealistisch. Es gibt nämlich einen kleinen Unterschied zwischen maximal und immer. Punkt: "TDP gilt immer, egal WIE Du die CPU betreibst" 1. Schön das Abkürzungen und technische Daten der CPU kennst, nur solltest du auch verstehen was sie bedeuten, wenn du schon drüber sprichst. 2. Gelten die 95w TDP Verlustleitung für das Long Boost Power Window (PL1). Im Short Turbo Boost Power Window (PL2) (30 sek.) genehmigt sich die CPU deutlich mehr. Siehe Grafik: Quelle: Anandtech.com 3. Wie bereits gesagt, gelten die 95w nur, wenn du die CPU nach Intels Spezifikationen betreibst. In der Realität entscheidet das aber selten die CPU, sondern Mainboard, BIOS und VRM-Layout + Hersteller-Restriktionen ergeben die mögliche Leistung der CPU. Speziell im Notebook-Segment ist die Kühllösung noch ein weiterer Faktor. 4. Das dir die Abkürzung PL nicht geläufig ist, hast du letztens schon hier nachgefragt. Eine Abkürzung nicht zu wissen ist nicht schlimm, jedoch auf die Bedeutung pfeifen, obwohl ich dich drauf hingewiesen habe, ist was anderes. Daher wundert mich deine Argumentation hier nicht. Ich habe dir schon im Thread gesagt, dass die PLs darüber entscheiden, was sich die CPU erlauben darf. Glaubst du nicht? Gut, nehmen wir ein anderes einfacheres Beispiel und zwar meinem i7-8750H. Laut Intel hat die CPU eine maximale (nicht wie du sagst immer) TDP Leistung von 45w. Komisch das die CPU sich dauerhaft 75w im Long Term und bis zu 90w im Short Term genehmigen kann. Warum das so ist, siehe Punkt 3. Das ist auch der Grund, warum verschiedene Lüfterprofile verschiedene Leistungsstufen zulassen. Da das Thema scheinbar etwas kompliziert ist, hier noch mal eine kurze Zusammenfassung: 5. Betreibst du die CPU außerhalb von Intel Spezifikationen, kannst du dir die angebenden TDP Werte schenken. Dafür reicht schon ein passendes Setting im AWCC. Glaubst du nicht? Dann stell die Lüfter auf 100% und lass CB R20 im Loop laufen. Dann wirst du ganz schnell sehen, was deine CPU von der angegebenen TDP Leistung hält*. Selbst beim "normalen" OC mit 5,0 GHz genehmigt sich die CPU weit über 200w. *edit, keine Ahnung was die Limits beim non-K Modell sind. Hast du dich überhaupt schon mal gefragt warum das so ist? Ist dir eigentlich klar, dass du dich mit der Aussage selber widersprichst? Oben schreibst du, dass 95w immer gegeben ist, aber UV dann doch was bringt.
  29. 1 point
    Hi Leute Wollte mit diesem Thread mal wissen wie eure Setups denn aussehen. Hab mal ein Foto von meinem Dorf Disco Schreibtisch für euch gepostet. Schönes Weekend noch. Grüsse DerGerät1983
  30. 1 point
    @DerGerät1983 nein, ich mache keine musik, höre aber sehr gerne musik-und sammle tonbandgeräte.😁
  31. 1 point
    macht bitte einen screenshot vom Gerätemanager, Kamera und Tobbi Eyetracking sensor. Zuerst, hat die Tobii Leiste schon mal funktioniert? Wenn nicht bekannt, könnte es auch ein Hardwaredefekt sein. Vermutlich ist es aber ein Treiberproblem. Generelle Problembehandlung. Apps von Tobii deinstallieren. Im Gerätemanager Die normale Cam deinstallieren un alle Tobii Einträge. Dabei immer Treiber Löschen auswählen. *Eye Chip (USB Geräte) *Tobii Device/ Eyetracker (Eingabegeräte HID) Danach die Internetverbindung trennen um den Autoinstall zu umgehen. Neustart des PC Treiber (neuinstallieren)
  32. 0 points
    Leider ist Dell nicht besonders Kundenfreundlich. Meine Anfragen zu der Leiste werden schlichtweg ignoriert. Ich bekomme auf Emails keine Antwort oder jedesmal nur den Hinweis das ich mich an die "Out of Warranty - Abteilung" wenden soll. Die wollen von mir den Laptop eingeschickt haben um einen Kostenvoranschlag zu machen. Das ist aber nicht was ich möchte. Kurz und Knapp. Der Laptop geht nächstes Wochenende in Ebay. Das Thema Alienware sowie auch Dell haben sich für mich endgültig erledigt. Nächstes Jahr steht bei mir im Unternehmen die Aktualiesierung der IT an (17 Arbeitsplätze). Dell fliegt hier ebenfalls raus.
  33. 0 points
    Bleib einfach bei den Notebooks oder den themenbezogenen Punkten (Hardware, Software, Hersteller). Diskussionen (auch Beispiele) über Autos, Häuser oder sonst passen einfach hier nicht rein.
This leaderboard is set to Berlin/GMT+02:00
  • Newsletter

    Want to keep up to date with all our latest news and information?
    Sign Up
×
×
  • Create New...

Important Information

Please note following information: Terms of Use, Privacy Policy and Guidelines. We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue.