Warum wird Hardware mit der Zeit langsamer?


38

Warum wird Hardware mit der Zeit langsamer? Ich bin seit 1990 PC-Besitzer und jeder Computer, den ich in meinem Leben hatte, wurde nach 3-4 Jahren sehr, sehr langsam (auch bei einer vollständigen Neuinstallation des Systems). Dies ist bei Windows-PCs der Fall. Dies ist auch bei Apple Hardware der Fall. Warum passiert das? Kann das vermieden werden?


17
Die Computerfeen langweilen sich und gehen zu einem schnelleren Ort :(
Phoshi

1
@Phoshi Computer Feen? Ich dachte, es wären Gremlins, die CPU-Zyklen verschlingen.
Alex

2
Die Feen sorgen dafür, dass die CPU besser läuft. Es ist ein ständiger Kampf.
Phoshi

11
Computer-Feen? bah. Es ist eine bekannte Tatsache, dass ältere Hamster nicht so schnell laufen wie die jüngeren. Sie müssen den Koffer öffnen und ab und zu einen frischen Hamster eintauschen.
Quacksalber 14.

2
Die größte Frage ist, was mit den verbrauchten Hamstern zu tun ist. Ich nannte die letzten beiden "billiger als" und "Katzenfutter", aber ich bin nicht überzeugt, dass dies die beste Entsorgungsmethode ist.
Quacksalber 14.

Antworten:


32

Manchmal ist es die Hardware, besonders bei Laptops. Moderne Prozessoren verfügen über Schaltkreise, die sie vor Überhitzung schützen und die CPU-Geschwindigkeit absichtlich reduzieren, wenn die Kerntemperatur zu hoch wird (oder auch, um Strom zu sparen, wenn die Nachfrage gering ist und Sie mit Batterien arbeiten - Intel nennt die Funktion "SpeedStep" ihre Prozessoren). Wenn Sie bemerken, dass Ihr Lüfter die ganze Zeit läuft oder die Maschine im Bereich des Lüfterauslasses übermäßig heiß wird, sind möglicherweise die "Luftwege" Ihres Computers durch Staub verstopft.

Ich hatte ein Dell Latitude, das wie neu lief, nachdem ich es geöffnet und etwa einen Zentimeter dicken "Staubschwamm" zwischen dem Lüfter und dem Kühlkörper entfernt hatte. Auf der Website von Dell finden Sie tatsächlich herunterladbare Serviceanweisungen, in denen alle Schritte zum Öffnen des Geräts und zum Einstieg in diese Art von Service erläutert werden. Wenn Sie sich damit nicht wohl fühlen, haben Sie wahrscheinlich einen Technikfreund, der Ihnen weiterhilft. Das Risiko lohnt sich auf jeden Fall, wenn Sie die Maschine anderweitig loswerden möchten!

Wenn Sie der Meinung sind, dass dies auf Ihrem Computer der Fall ist, laden Sie ein Dienstprogramm wie "SpeedFan" herunter, mit dem Sie die Temperatur Ihrer CPU sowie anderer Komponenten überprüfen können. Mit dieser App können Sie die Temperaturen grafisch darstellen, wenn Sie die Maschine zum ersten Mal starten. Wenn sie schnell ansteigen und nie nachlassen, kann man darauf wetten, dass die Kühlung ein Problem darstellt. In meinem Fall habe ich auch eine kostenlose App namens "CS Fire Monitor" verwendet, um mir die tatsächliche Geschwindigkeit meines Prozessors zu zeigen, und ich habe festgestellt, dass sie auf weniger als die Hälfte der Geschwindigkeit abfiel, sobald sie heiß wurde. Es gibt viele gute Freeware-Programme, die Ihnen diese Art von Informationen liefern. Nur Google "CPU Temp Freeware" oder "CPU Speed ​​Freeware" oder etwas in dieser Richtung und Sie werden alle Arten von Optionen finden.

Hoffentlich erspart dies ein paar Leuten das Ersetzen oder Wegwerfen anständiger Hardware, die nur eine Atemtherapie benötigt!


38

Hier gibt es einige Effekte:

  1. Ihre Wahrnehmung, wie schnell der Computer sein sollte, ändert sich. Wenn Sie zum ersten Mal neue Hardware kaufen, können Sie sie mit der alten Hardware vergleichen. Dies gibt Ihnen ein empirisches Maß für die Geschwindigkeitsverbesserung. Mit der Zeit merkt man sich, wie langsam die alte Hardware verblasst, und wie schnell die aktuelle Hardware zuletzt im Vergleich war.
  2. Es werden neue Softwareversionen herausgebracht, die neue Funktionen hinzufügen, um entweder die Funktionalität zu erweitern oder die neue Hardware zu nutzen. Dies ist per definitionem ein größeres Programm als zuvor, das mehr Ressourcen in Anspruch nimmt und Ihre Hardware etwas langsamer laufen lässt.
  3. Anhäufung von Treibern, Programmen / Aufgaben, die im Hintergrund ausgeführt werden usw. Jede zusätzliche Treiber- / Hintergrundaufgabe beansprucht etwas mehr Ressourcen - Festplattenspeicher, Arbeitsspeicher, CPU-Zyklen usw. Obwohl nicht alle nicht groß sind, ist der Effekt kumulativ. Die Leute erwarten, dass sich moderne Programme selbst aktualisieren, sodass zusätzliche Aufgaben ausgeführt werden, die Sie nicht kennen. Je länger Sie den Computer haben, desto mehr dieser Programme haben Sie wahrscheinlich installiert.

Zusammengenommen erwecken sie den Eindruck, dass die Hardware langsamer wird.

Es kann auch andere Auswirkungen aufgrund von Verschleiß an der Hardware geben (Festplattenfragmentierung, Speicherlatenz).


10
Das ist nicht wahr. Zum Beispiel habe ich mich ein paar Tage nach dem Eintreffen mit meinem neuen PowerBook G4 selbst gefilmt. Ich musste keine Sekunde warten, bis der Finder geöffnet war und die üblichen Dateiverwaltungsaufgaben erledigte. Die durchschnittliche CPU-Auslastung lag unter 2%. Als Beweis habe ich TIGER neu installiert und die Festplatte vollständig formatiert. Ich habe immer noch eine durchschnittliche CPU-Auslastung von 30% und muss 3-4 Sekunden warten, bis der Suchvorgang abgeschlossen ist.
Alexey Kulikov

1
@Alexey Kulikov - ChrisF hat nicht gesagt, dass "Es ist alles in deinem Kopf" der einzige Grund ist, warum die Hardware langsamer wird. Verschleiß an der Hardware kann ebenfalls zu dem führen, was Sie beschreiben. Es gibt so viele Variablen, dass es schwer ist, genau zu sagen, warum.
J. Polfer

1
Umfasste Ihre vollständige Neuinstallation das Anwenden von Updates? In diesem Fall ist es kein echter Vergleich von Äpfeln zu Äpfeln.
Chris Nava

5
@ Chris - "Äpfel an Äpfel", lol. Wortspiel beabsichtigt?
Moshe

3
@ Moshe Ich wünschte, ich könnte Ja sagen, aber es ist mir nie in den Sinn gekommen. :-( Im Ernst, Patches (insbesondere Sicherheitspatches) haben oft Leistungseinbußen. Daher ist das Testen eines vollständig gepatchten Systems im Vergleich zu dem, an das Sie sich vor Jahren erinnern, mit unzähligen Variablen behaftet.
Chris Nava

14

Wenn ich Benchmarks (sowohl triviale wie Bogomips als auch ernstere wie Dhrystone und Whetstone ) mit fünf bis acht Jahre alter Hardware durchgeführt habe, stellte ich immer fest, dass sich die gleichen Ergebnisse wie im Neuzustand einstellten . (Immer auf Linux und Mac OS Boxen, Übrigens.)

Ich habe weniger Erfahrung mit Festplatten, aber ich habe ein schnelles und breites SCSI2-Laufwerk ungefähr fünf Jahre später (mit hdparm) getestet und Antworten erhalten, die mit der ursprünglichen Spezifikation vergleichbar waren.

Ich denke also, es ist meistens, wie andere gesagt haben, eine Kombination aus neuen Erwartungen und schwererer Software.

Das heißt, ich habe derzeit ein Powerbook G4, das getestet werden könnte, da es sich jetzt sicher langsamer anfühlt als früher. Der obige Vorschlag, die Uhr zu drosseln, könnte zum Tragen kommen, wenn das Kühlsystem verschmutzt ist.


12

Das Gesetz der Seite ;)

Wirths Gesetz, auch bekannt als Page-Gesetz, Gates-Gesetz und May-Gesetz, ist ein Rechenausdruck, der besagt, dass Software schneller langsamer wird als Hardware schneller.


3
+1 Es ist nicht die Hardware, aber die Software ist langsamer
Ivo Flipse

Ich hatte dies als Schlag ins Gesicht, als ich Breitband bekam (und somit neue Software herunterladen konnte). PC wurde so viel langsamer so schnell, und nichts half :(
Phoshi

6
haha, dort wird auch Gate's Law erwähnt: "... die Geschwindigkeit kommerzieller Software verlangsamt sich im Allgemeinen alle 18 Monate um 50 Prozent, wodurch alle Vorteile von Moore's Law zunichte gemacht werden."
Bratch

6

Eine gewisse Verlangsamung wird durch die Fragmentierung der Festplatte verursacht , deren Lösung die Defragmentierung ist .
dies ist definiert als:

Dateisystemfragmentierung, manchmal auch als Dateisystemalterung bezeichnet, ist die Unfähigkeit eines Dateisystems, zusammengehörige Daten sequentiell (zusammenhängend) anzuordnen. Dies ist ein inhärentes Phänomen in speichergestützten Dateisystemen, das eine direkte Änderung ihres Inhalts ermöglicht. Es ist ein Sonderfall der Datenfragmentierung. Durch die Fragmentierung des Dateisystems werden die Bewegungen oder Suchvorgänge des Plattenkopfs erhöht, von denen bekannt ist, dass sie den Durchsatz behindern. Die Korrektur der vorhandenen Fragmentierung besteht darin, Dateien neu zu organisieren und Speicherplatz in zusammenhängenden Bereichen freizugeben. Dies wird als Defragmentierung bezeichnet.

Unter Windows gibt es einen weiteren Grund, nämlich die Windows-Registrierung

Die Windows-Registrierung ist eine Datenbank, in der Einstellungen und Optionen für Microsoft Windows-Betriebssysteme gespeichert sind. Es enthält Informationen und Einstellungen für Hardware, Betriebssystemsoftware, die meisten Nicht-Betriebssystemsoftware- und Benutzereinstellungen. Die Registrierung bietet auch ein Fenster für den Betrieb des Kernels, in dem Laufzeitinformationen wie Leistungsindikatoren und derzeit aktive Hardware angezeigt werden.

Im Laufe der Zeit sammelt sich die Registrierungszeit an Junk und muss auch bereinigt und optimiert werden.

Eine andere Erklärung ist, dass neuere Versionen des Betriebssystems normalerweise aufgeblähter und damit langsamer sind. Dies bedeutet, dass Sie durch die Installation der neuesten Betriebssystemversion oder Patches nach einigen Jahren plötzlich feststellen können, dass Ihr Computer jetzt langsamer ist und es an der Zeit ist, in neue Hardware zu investieren, die die Anforderungen der neuesten Version Ihres Computers effizient unterstützt Betriebssystem.


Unter der Annahme, dass eine "Neuinstallation" das Formatieren des Systemlaufwerks umfasst, wirkt sich keine dieser Änderungen auf eine Neuinstallation des Betriebssystems auf älterer Hardware aus.
Quacksalber 14.

Der Effekt der Fragmentierung hängt auch stark vom verwendeten Dateisystem ab. Einige Dateisysteme (mit FAT) leiden sehr , andere sehr wenig. Ebenso wenig verwendet jedes Betriebssystem eine unendlich wachsende zentralisierte Datenbank, um verschiedene Schalter und Optionen zu speichern.
dmckee

Ich werde hier auf die Nerven gehen und in 20 Jahren intensiver Computernutzung erklären, dass ich noch nie ein System erlebt habe, das merklich schneller geworden ist, nachdem eine Festplatte defragmentiert wurde. Gibt es objektive Beweise, die der Erfahrung widersprechen?
Matthew Lock

1
es kommt darauf an, was du tust. Das Durchsuchen meines Nicht-System-Datenlaufwerks (z. B. Durchführen von MD5-Berechnungen) ist viel schneller, wenn alle Dateien auf dem Laufwerk defragmentiert sind, als wenn 1 + GB-Dateien in mehr als 200 Fragmenten verteilt sind. Wenn Sie nach einer Defragmentierung keine Systembeschleunigung feststellen, wurden Ihre Systemdateien möglicherweise zunächst nicht fragmentiert.
Quack Quijote

Um Matthews Kommentar hinzuzufügen, habe ich noch nie einen Computer gesehen, der schneller lief, nachdem auch die Registrierung bereinigt wurde. Für die Hunderttausenden von Einträgen dort macht es keinen Unterschied, ein paar Hundert zu entfernen.
Richard

4

Man gewöhnt sich an die Geschwindigkeit und es fühlt sich jetzt länger schnell an.

Zum Beispiel hatte ich einen Kunden, der eine Routine hatte (die er als Ausfallzeit ansah), die auf einem alten Computer mehr als eine Stunde dauerte, und als er seinen Computer aufrüstete, dauerte der Vorgang fünf Minuten, was ihn für eine Weile sehr glücklich machte.

Vorlauf ein paar Jahre und sie beschweren sich jetzt über diese Routine, die fünf Minuten dauert. Und jedes Mal, wenn sie sich beschweren, scheinen sie wirklich die Zeit vergessen zu haben, die es eine Stunde gedauert hat.


2

Es gibt ein gewisses Wahrnehmungsproblem, aber wenn Sie tatsächlich eine Leistungsminderung messen, würde ich versuchen, Teile im System zu bewegen.

"Bewegliche Teile", fragen Sie, "welche beweglichen Teile?"

Zwei leicht zu überprüfende Kategorien: Lüfter und Festplatten. Lüfter liegen auf der Hand, aber stellen Sie zusätzlich zum Lüfter selbst sicher, dass der Luftstrom und die Kühlung nicht behindert werden, um sicherzustellen, dass die Innentemperaturen der Komponenten auch dort sind, wo sie waren, als die Box neu war. Festplatten sind etwas subtiler, aber eine sich verschlechternde Festplatte kann die Leistung drastisch beeinträchtigen, während sie anscheinend funktioniert. Überprüfen Sie, ob die Festplatten-Benchmarks mit der neuen Leistung übereinstimmen oder ob die Fehleranzahl dramatisch angestiegen ist.

Sie bewegen sich zwar nicht wirklich, sind aber das moralische Äquivalent: Kabelanschlüsse. Jedes abnehmbare Ende jedes Kabels. Ziehen Sie den Stecker heraus, stellen Sie sicher, dass der Stecker sauber und fest ist.


1

Vielleicht liegt es nur an deiner Wahrnehmung.

Vor drei bis vier Jahren funkelte es mit neuer Hardware, die schneller war als die vorherige Hardwaregeneration, daher fühlte es sich sehr schnell an.

In den letzten drei bis vier Jahren haben Sie zweifellos Computer mit besserer Hardware verwendet. Selbst wenn Sie eine Neuinstallation auf dem alten Computer durchführen, werden Ihre Erfahrungen mit neuerer Hardware einen matten Eindruck vom alten Computer hinterlassen.

Oder haben Sie empirische Beweise dafür, dass die Maschine tatsächlich langsamer arbeitet?


Ja, es gibt Beweise - ich habe mich ein paar Tage nach meiner Ankunft mit meinem neuen PowerBook G4 selbst gefilmt. Ich musste keine Sekunde warten, bis der Finder geöffnet war und die üblichen Dateiverwaltungsaufgaben erledigte. Die durchschnittliche CPU-Auslastung lag unter 2%. Als Beweis habe ich TIGER neu installiert und die Festplatte vollständig formatiert. Ich habe immer noch eine durchschnittliche CPU-Auslastung von 30% und muss 3-4 Sekunden warten, bis der Suchvorgang abgeschlossen ist.
Alexey Kulikov

Ok, mein anderer Gedanke wäre, dass die Festplatte im Laufe der Zeit fehlerhafte Sektoren entwickelt hat, und dies würde den Aufwand bedeuten, Daten, die die Integritätsprüfungen nicht bestanden haben, erneut lesen zu müssen. Dies würde auch nach einem vollständigen Format auftreten.
JRT

Wie lange hat es gedauert, bis Sie sich mit Ihrem neuen PowerBook selbst gefilmt und TIGER neu installiert haben?
J. Polfer

4 Jahre. Ich hatte immer den Eindruck, dass die Hardware abgenutzt ist, und vor ein paar Tagen habe ich einen Screencast gefunden, den ich vor 4 Jahren aufgenommen habe. Also habe ich mich für das Experiment entschieden und voila - alles in allem.
Alexey Kulikov

1

Ich glaube, dass einige Treiber-Updates heutzutage möglicherweise auch die Firmware auf dem entsprechenden Gerät aktualisieren. Es gibt auch potenzielle CPU-Mikrocode-Updates, wenn auch selten.

Ich habe einige populäre Diagnose- / Benchmark-Tools gesehen, die behaupteten, dass die Dinge mit normaler Geschwindigkeit funktionierten, aber es gab eine Art Treiber- / Hardwareproblem auf niedriger Ebene, das den Mauszeiger dazu brachte, zu kriechen und zu springen. Zu der Zeit wusste ich noch nichts über die Messung der DPC-Latenz - dieses Tool hätte wahrscheinlich darauf hingewiesen, dass es ein Problem gibt.

Der Punkt ist - es ist möglich, dass die Dinge langsamer werden, aber nicht in den Tools auftauchen, die gelegentliche PC-Benutzer verwenden.

Wenn sich jemand damit befassen möchte, sollte er 2 identische Computer haben, der andere wird nie mit dem Internet verbunden, es werden niemals Updates oder neue Treiber installiert. Und starte beide Computer mit einem externen Timer / überprüfe die Zeit von NTP, nur um sicherzugehen. - und nach 4 Jahren erneut, und wenn es einen Unterschied gibt, klonen Sie die Festplatte vom nicht angeschlossenen Computer auf den angeschlossenen und versuchen Sie es erneut. Und überprüfe alle Änderungen der Firmware-Version usw. Bearbeiten: Und wenn ich "Zeit" sage, meine ich das Timing einer benutzerdefinierten Aufgabe, ohne den vorhandenen Benchmark zu verwenden. Sowohl GPU- als auch CPU-Anbieter sind laut Anandtech und einigen anderen Websites in den letzten Jahren, die ich gelesen habe, beim Spielen bekannter Benchmarks erwischt worden.


0

Eigentlich ist dies kein technisches Problem, sondern ein Problem des menschlichen Gehirns. Das mag dich überraschen, aber lass es mich erklären. Ich habe eine gute Grundlage für das, was ich sage.

Ein Teil des Problems ist, wie die Software-Updates und Patches angewendet werden, aber das ist nicht der Kern des Problems, denke ich nicht.

Die Hardwaremaschinen sind im Laufe der Jahre tatsächlich erheblich schneller geworden, aber die Fähigkeit der Software, sie herunterzuladen, hat sich noch schneller erhöht, was die Wahrnehmung und die Aktualität vermittelt, dass manche Dinge langsamer sind, als sie sind.

Zum Beispiel hatte meine erste Z-80-Box eine Taktrate von 1 Megahertz. Jetzt läuft meine Entwicklungsplattform mit 2,66 GHz oder über 2000-mal schneller. Ich erinnere mich nicht genau, aber alle CPM passen in etwa 16 KB. Jetzt ist Windows wer weiß wie groß, aber viel, viel größer. Es werden viele Abstraktionsebenen verwendet, mit denen erstaunliche Dinge auf allgemeinere Weise erledigt werden können. Diese Ebenen beeinträchtigen jedoch die Leistung.

Lassen Sie mich zum menschlichen Gehirn zurückkehren. Es versteht sich von selbst, dass Softwareingenieure seit vielen Jahren mit gutem Grund gesagt und geglaubt haben, dass die Hardware immer schneller wird und die Software daher bei Optimierungsproblemen nicht vorsichtig sein muss. Die Programmierer haben also alles getan, um die Dinge zum Laufen zu bringen, und zwar auf Kosten der Geschwindigkeit. Die Aktualisierungen und Patches erfolgen also mit dem Gedanken, dass sie nur vorübergehend sind, dh nur für kurze Zeit.

Es ist: kurzfristig, Mikro-Denken, langfristig, Makro-Problem.

Ich habe vor vielen Jahren ein interessantes Buch gelesen, in dem einige Wissenschaftler dieses Problem des kurzfristigen oder langfristigen menschlichen Denkens darlegten, und einige Experimente mit einer Vielzahl von Menschen durchgeführt, um zu sehen, wie sie diese Kompromisse eingehen. Ihr Buch ist New World New Mind und die Autoren sind Paul Ehrlich und Robert Ornstein. Ich würde es als das wichtigste Buch ausgeben, das ich in den letzten 20 Jahren gelesen habe, weil es einen soliden Rahmen für die Lösung des Problems bot.

Sie stellten fest, dass sich das menschliche Gehirn in einer Zeit entwickelte, in der kurzfristige Entscheidungen sinnvoll waren. Lebe für den Moment und den Tag, aber denke nicht zu viel über die Zukunft nach. Es war es einfach nicht wert. Unser Bauchgefühl für Dinge, mit denen wir oft Entscheidungen treffen, ist also ein sehr alter Teil des Gehirns und für viele moderne Probleme nicht gut geeignet. Und das Gehirn hatte keine realistische Zeit, sich zu entwickeln, da sich die Welt mit dem Bevölkerungswachstum und den Auswirkungen der Technologie auf die Dinge rasant verändert hat.

Was Ehrlich und Ornstein von Professoren entdeckten, war, dass sehr kluge und gut ausgebildete Doktoranden, aber auch Hausmeister die gleichen Fehler machten, wenn sie mit kurzfristigen oder langfristigen Problemen konfrontiert wurden. Wir glauben nicht, dass dies der Fall ist.

Ein sehr gutes und überzeugendes Beispiel dafür, wie sich dasselbe Problem in der heutigen Welt abspielt, hat nichts mit der Hardware-Umgebung zu tun, aber es ist der große Bruder der ganzen verdammten Umgebung, in der wir leben. Wir Menschen machen im Moment im Allgemeinen den Fehler, für heute zu leben, aber die Realität ist, dass die globale Erwärmung genau deshalb auf uns zukommt, weil wir es nicht zugelassen oder Maßnahmen ergriffen haben, um damit umzugehen. Es ist die Verlangsamung der Hardware durch das Softwareproblem, immer wieder, aber in einem anderen Kontext.

Ornstein und Ehrlich schlugen vor, dass wir möglicherweise korrektere Entscheidungen treffen könnten, indem wir unsere Entscheidung nicht auf unserem Bauchgefühl, sondern auf Daten und Statistiken gründen. Wenn ein Softwareentwickler beispielsweise Statistiken darüber hat, wie schnell seine Software aufgebläht ist, im Verhältnis zu der Geschwindigkeit, mit der die Hardware schneller wird, trifft er möglicherweise bessere Entscheidungen darüber, was einbezogen, was ausgelassen und wie viel Algorithmen optimiert werden müssen. Mit anderen Worten, wenn sie tatsächliche Daten verwendeten, um Entscheidungen zu treffen, anstatt ihren Bauchgefühl.

Vielen Dank für die gute Frage. Manchmal sind die einfachen Fragen die besten, denke ich. es gab mir die Möglichkeit, dies aus einem neuen Blickwinkel zu betrachten. Ich hatte noch nie zuvor die Parallele zwischen dem Hardware-Software-Problem im menschlichen Kontext gesehen.


0

Die meisten (wenn überhaupt) Benchmarks sind nicht zuverlässig, um die Aktualität des Betriebssystems zu messen. Sofern es sich bei dem Benchmark nicht um ein USB-zu-USB-System handelt, das die Benutzeroberfläche eines anderen Computers steuert und eine Maus / Tastatur emuliert, sind die Ausführungspfade völlig anders. Die mir bekannte Langsamkeit bei PCs ist auf Treiber- / Sicherheitsupdates zurückzuführen, mit denen auch die Firmware aktualisiert werden kann (und Sie wissen nicht, ob das Firmware-Update im Treiber weiterhin vorhanden ist oder nicht). Daher ist der einzig wahre Vergleich zwischen Äpfeln und Äpfeln der Kauf von 2 Computer und schließen Sie niemals den anderen an das Internet an oder aktualisieren Sie die Treiber nach der Erstinstallation, sondern bewahren Sie sie für einen späteren Vergleich mit einem solchen externen Benchmarking-Tool auf.

Ich habe angefangen, alle Benchmarks zu vermuten, als ich einen Fall fand, in dem der Benchmark "alle guten" Zahlen zurückgab, während ein Hardwareproblem dazu führte, dass die Maus hängen blieb und das System eigentlich nur schwer kontrollierbar war - offensichtlich sind die Benchmarks von einigen niedrigen Werten nicht betroffen Level Dinge, die beeinflussen können, z. Schnelligkeit und Steuerbarkeit des PCs.

(Etwas anderer, aber ähnlicher Fall: Obwohl der Q6600 im Vergleich zum entsprechenden Ghz-Dual-Core-Test mit einem Benchmark verglichen wurde, stellte ich fest, dass die Reaktionsfähigkeit deutlich geringer war. Damals wurde dies darauf zurückgeführt, dass der Win-Vista-Scheduler mit 4 Kernen nicht gut war Da die meisten Benchmarks, die FPS anzeigen, keine winzigen Jitter erkennen, die der Benutzer fühlen würde, messen die PC-Benchmarks, die die technische Presse verwendet, keine Dinge wie "Unterbrechung, um die Latenz zu verarbeiten" und zeigen statt eines Durchschnitts die entsprechenden Statistiken an.

edit: Und wenn Sie ein solches Setup mit einem unberührten Referenz-PC durchführen, wenn dieser einen Akku hat und / oder jemals mit Strom versorgt wird, kann der Hardware-Hersteller mit einem LFO betrügen, um die Hardware verdeckt zu veralten, z. durch Verlangsamung eines Vorgangs, den Benchmarks nicht messen. Ein besserer als üblicher Spieledruck-Benchmark wäre es, z. Dosbox, Emulatoren, Latenzmessungen in VMware / Hyperv, da dies die CPU auf komplexere Weise belastet als sonst.

edit2: und wenn sie wirklich wollten, könnten sie etwas einbauen, das altert, oder einen Ultra-Low-Power-Zähler und -Kondensator oder eine winzige Batterie, die werkseitig aufgeladen wurde. Egal, ob Sie das Gerät niemals mit Strom versorgen, es könnte mit der Zeit langsamer werden, aber so etwas könnte eine Gefahr sein, wenn jemand es findet, aber es wäre nicht wirklich wichtig, wenn es nicht illegal wäre und die Geldstrafen ausreichen, um es auszuschalten des Geschäfts.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.