Warum wird Hardware mit der Zeit langsamer? Ich bin seit 1990 PC-Besitzer und jeder Computer, den ich in meinem Leben hatte, wurde nach 3-4 Jahren sehr, sehr langsam (auch bei einer vollständigen Neuinstallation des Systems). Dies ist bei Windows-PCs der Fall. Dies ist auch bei Apple Hardware der Fall. Warum passiert das? Kann das vermieden werden?
performance
Alexey Kulikov
quelle
quelle
Antworten:
Manchmal ist es die Hardware, besonders bei Laptops. Moderne Prozessoren verfügen über Schaltkreise, die sie vor Überhitzung schützen und die CPU-Geschwindigkeit absichtlich reduzieren, wenn die Kerntemperatur zu hoch wird (oder auch, um Strom zu sparen, wenn die Nachfrage gering ist und Sie mit Batterien arbeiten - Intel nennt die Funktion "SpeedStep" ihre Prozessoren). Wenn Sie bemerken, dass Ihr Lüfter die ganze Zeit läuft oder die Maschine im Bereich des Lüfterauslasses übermäßig heiß wird, sind möglicherweise die "Luftwege" Ihres Computers durch Staub verstopft.
Ich hatte ein Dell Latitude, das wie neu lief, nachdem ich es geöffnet und etwa einen Zentimeter dicken "Staubschwamm" zwischen dem Lüfter und dem Kühlkörper entfernt hatte. Auf der Website von Dell finden Sie tatsächlich herunterladbare Serviceanweisungen, in denen alle Schritte zum Öffnen des Geräts und zum Einstieg in diese Art von Service erläutert werden. Wenn Sie sich damit nicht wohl fühlen, haben Sie wahrscheinlich einen Technikfreund, der Ihnen weiterhilft. Das Risiko lohnt sich auf jeden Fall, wenn Sie die Maschine anderweitig loswerden möchten!
Wenn Sie der Meinung sind, dass dies auf Ihrem Computer der Fall ist, laden Sie ein Dienstprogramm wie "SpeedFan" herunter, mit dem Sie die Temperatur Ihrer CPU sowie anderer Komponenten überprüfen können. Mit dieser App können Sie die Temperaturen grafisch darstellen, wenn Sie die Maschine zum ersten Mal starten. Wenn sie schnell ansteigen und nie nachlassen, kann man darauf wetten, dass die Kühlung ein Problem darstellt. In meinem Fall habe ich auch eine kostenlose App namens "CS Fire Monitor" verwendet, um mir die tatsächliche Geschwindigkeit meines Prozessors zu zeigen, und ich habe festgestellt, dass sie auf weniger als die Hälfte der Geschwindigkeit abfiel, sobald sie heiß wurde. Es gibt viele gute Freeware-Programme, die Ihnen diese Art von Informationen liefern. Nur Google "CPU Temp Freeware" oder "CPU Speed Freeware" oder etwas in dieser Richtung und Sie werden alle Arten von Optionen finden.
Hoffentlich erspart dies ein paar Leuten das Ersetzen oder Wegwerfen anständiger Hardware, die nur eine Atemtherapie benötigt!
quelle
Hier gibt es einige Effekte:
Zusammengenommen erwecken sie den Eindruck, dass die Hardware langsamer wird.
Es kann auch andere Auswirkungen aufgrund von Verschleiß an der Hardware geben (Festplattenfragmentierung, Speicherlatenz).
quelle
Wenn ich Benchmarks (sowohl triviale wie Bogomips als auch ernstere wie Dhrystone und Whetstone ) mit fünf bis acht Jahre alter Hardware durchgeführt habe, stellte ich immer fest, dass sich die gleichen Ergebnisse wie im Neuzustand einstellten . (Immer auf Linux und Mac OS Boxen, Übrigens.)
Ich habe weniger Erfahrung mit Festplatten, aber ich habe ein schnelles und breites SCSI2-Laufwerk ungefähr fünf Jahre später (mit
hdparm
) getestet und Antworten erhalten, die mit der ursprünglichen Spezifikation vergleichbar waren.Ich denke also, es ist meistens, wie andere gesagt haben, eine Kombination aus neuen Erwartungen und schwererer Software.
Das heißt, ich habe derzeit ein Powerbook G4, das getestet werden könnte, da es sich jetzt sicher langsamer anfühlt als früher. Der obige Vorschlag, die Uhr zu drosseln, könnte zum Tragen kommen, wenn das Kühlsystem verschmutzt ist.
quelle
Das Gesetz der Seite ;)
quelle
Eine gewisse Verlangsamung wird durch die Fragmentierung der Festplatte verursacht , deren Lösung die Defragmentierung ist .
dies ist definiert als:
Unter Windows gibt es einen weiteren Grund, nämlich die Windows-Registrierung
Im Laufe der Zeit sammelt sich die Registrierungszeit an Junk und muss auch bereinigt und optimiert werden.
Eine andere Erklärung ist, dass neuere Versionen des Betriebssystems normalerweise aufgeblähter und damit langsamer sind. Dies bedeutet, dass Sie durch die Installation der neuesten Betriebssystemversion oder Patches nach einigen Jahren plötzlich feststellen können, dass Ihr Computer jetzt langsamer ist und es an der Zeit ist, in neue Hardware zu investieren, die die Anforderungen der neuesten Version Ihres Computers effizient unterstützt Betriebssystem.
quelle
Man gewöhnt sich an die Geschwindigkeit und es fühlt sich jetzt länger schnell an.
Zum Beispiel hatte ich einen Kunden, der eine Routine hatte (die er als Ausfallzeit ansah), die auf einem alten Computer mehr als eine Stunde dauerte, und als er seinen Computer aufrüstete, dauerte der Vorgang fünf Minuten, was ihn für eine Weile sehr glücklich machte.
Vorlauf ein paar Jahre und sie beschweren sich jetzt über diese Routine, die fünf Minuten dauert. Und jedes Mal, wenn sie sich beschweren, scheinen sie wirklich die Zeit vergessen zu haben, die es eine Stunde gedauert hat.
quelle
Es gibt ein gewisses Wahrnehmungsproblem, aber wenn Sie tatsächlich eine Leistungsminderung messen, würde ich versuchen, Teile im System zu bewegen.
"Bewegliche Teile", fragen Sie, "welche beweglichen Teile?"
Zwei leicht zu überprüfende Kategorien: Lüfter und Festplatten. Lüfter liegen auf der Hand, aber stellen Sie zusätzlich zum Lüfter selbst sicher, dass der Luftstrom und die Kühlung nicht behindert werden, um sicherzustellen, dass die Innentemperaturen der Komponenten auch dort sind, wo sie waren, als die Box neu war. Festplatten sind etwas subtiler, aber eine sich verschlechternde Festplatte kann die Leistung drastisch beeinträchtigen, während sie anscheinend funktioniert. Überprüfen Sie, ob die Festplatten-Benchmarks mit der neuen Leistung übereinstimmen oder ob die Fehleranzahl dramatisch angestiegen ist.
Sie bewegen sich zwar nicht wirklich, sind aber das moralische Äquivalent: Kabelanschlüsse. Jedes abnehmbare Ende jedes Kabels. Ziehen Sie den Stecker heraus, stellen Sie sicher, dass der Stecker sauber und fest ist.
quelle
Vielleicht liegt es nur an deiner Wahrnehmung.
Vor drei bis vier Jahren funkelte es mit neuer Hardware, die schneller war als die vorherige Hardwaregeneration, daher fühlte es sich sehr schnell an.
In den letzten drei bis vier Jahren haben Sie zweifellos Computer mit besserer Hardware verwendet. Selbst wenn Sie eine Neuinstallation auf dem alten Computer durchführen, werden Ihre Erfahrungen mit neuerer Hardware einen matten Eindruck vom alten Computer hinterlassen.
Oder haben Sie empirische Beweise dafür, dass die Maschine tatsächlich langsamer arbeitet?
quelle
Ich glaube, dass einige Treiber-Updates heutzutage möglicherweise auch die Firmware auf dem entsprechenden Gerät aktualisieren. Es gibt auch potenzielle CPU-Mikrocode-Updates, wenn auch selten.
Ich habe einige populäre Diagnose- / Benchmark-Tools gesehen, die behaupteten, dass die Dinge mit normaler Geschwindigkeit funktionierten, aber es gab eine Art Treiber- / Hardwareproblem auf niedriger Ebene, das den Mauszeiger dazu brachte, zu kriechen und zu springen. Zu der Zeit wusste ich noch nichts über die Messung der DPC-Latenz - dieses Tool hätte wahrscheinlich darauf hingewiesen, dass es ein Problem gibt.
Der Punkt ist - es ist möglich, dass die Dinge langsamer werden, aber nicht in den Tools auftauchen, die gelegentliche PC-Benutzer verwenden.
Wenn sich jemand damit befassen möchte, sollte er 2 identische Computer haben, der andere wird nie mit dem Internet verbunden, es werden niemals Updates oder neue Treiber installiert. Und starte beide Computer mit einem externen Timer / überprüfe die Zeit von NTP, nur um sicherzugehen. - und nach 4 Jahren erneut, und wenn es einen Unterschied gibt, klonen Sie die Festplatte vom nicht angeschlossenen Computer auf den angeschlossenen und versuchen Sie es erneut. Und überprüfe alle Änderungen der Firmware-Version usw. Bearbeiten: Und wenn ich "Zeit" sage, meine ich das Timing einer benutzerdefinierten Aufgabe, ohne den vorhandenen Benchmark zu verwenden. Sowohl GPU- als auch CPU-Anbieter sind laut Anandtech und einigen anderen Websites in den letzten Jahren, die ich gelesen habe, beim Spielen bekannter Benchmarks erwischt worden.
quelle
Eigentlich ist dies kein technisches Problem, sondern ein Problem des menschlichen Gehirns. Das mag dich überraschen, aber lass es mich erklären. Ich habe eine gute Grundlage für das, was ich sage.
Ein Teil des Problems ist, wie die Software-Updates und Patches angewendet werden, aber das ist nicht der Kern des Problems, denke ich nicht.
Die Hardwaremaschinen sind im Laufe der Jahre tatsächlich erheblich schneller geworden, aber die Fähigkeit der Software, sie herunterzuladen, hat sich noch schneller erhöht, was die Wahrnehmung und die Aktualität vermittelt, dass manche Dinge langsamer sind, als sie sind.
Zum Beispiel hatte meine erste Z-80-Box eine Taktrate von 1 Megahertz. Jetzt läuft meine Entwicklungsplattform mit 2,66 GHz oder über 2000-mal schneller. Ich erinnere mich nicht genau, aber alle CPM passen in etwa 16 KB. Jetzt ist Windows wer weiß wie groß, aber viel, viel größer. Es werden viele Abstraktionsebenen verwendet, mit denen erstaunliche Dinge auf allgemeinere Weise erledigt werden können. Diese Ebenen beeinträchtigen jedoch die Leistung.
Lassen Sie mich zum menschlichen Gehirn zurückkehren. Es versteht sich von selbst, dass Softwareingenieure seit vielen Jahren mit gutem Grund gesagt und geglaubt haben, dass die Hardware immer schneller wird und die Software daher bei Optimierungsproblemen nicht vorsichtig sein muss. Die Programmierer haben also alles getan, um die Dinge zum Laufen zu bringen, und zwar auf Kosten der Geschwindigkeit. Die Aktualisierungen und Patches erfolgen also mit dem Gedanken, dass sie nur vorübergehend sind, dh nur für kurze Zeit.
Es ist: kurzfristig, Mikro-Denken, langfristig, Makro-Problem.
Ich habe vor vielen Jahren ein interessantes Buch gelesen, in dem einige Wissenschaftler dieses Problem des kurzfristigen oder langfristigen menschlichen Denkens darlegten, und einige Experimente mit einer Vielzahl von Menschen durchgeführt, um zu sehen, wie sie diese Kompromisse eingehen. Ihr Buch ist New World New Mind und die Autoren sind Paul Ehrlich und Robert Ornstein. Ich würde es als das wichtigste Buch ausgeben, das ich in den letzten 20 Jahren gelesen habe, weil es einen soliden Rahmen für die Lösung des Problems bot.
Sie stellten fest, dass sich das menschliche Gehirn in einer Zeit entwickelte, in der kurzfristige Entscheidungen sinnvoll waren. Lebe für den Moment und den Tag, aber denke nicht zu viel über die Zukunft nach. Es war es einfach nicht wert. Unser Bauchgefühl für Dinge, mit denen wir oft Entscheidungen treffen, ist also ein sehr alter Teil des Gehirns und für viele moderne Probleme nicht gut geeignet. Und das Gehirn hatte keine realistische Zeit, sich zu entwickeln, da sich die Welt mit dem Bevölkerungswachstum und den Auswirkungen der Technologie auf die Dinge rasant verändert hat.
Was Ehrlich und Ornstein von Professoren entdeckten, war, dass sehr kluge und gut ausgebildete Doktoranden, aber auch Hausmeister die gleichen Fehler machten, wenn sie mit kurzfristigen oder langfristigen Problemen konfrontiert wurden. Wir glauben nicht, dass dies der Fall ist.
Ein sehr gutes und überzeugendes Beispiel dafür, wie sich dasselbe Problem in der heutigen Welt abspielt, hat nichts mit der Hardware-Umgebung zu tun, aber es ist der große Bruder der ganzen verdammten Umgebung, in der wir leben. Wir Menschen machen im Moment im Allgemeinen den Fehler, für heute zu leben, aber die Realität ist, dass die globale Erwärmung genau deshalb auf uns zukommt, weil wir es nicht zugelassen oder Maßnahmen ergriffen haben, um damit umzugehen. Es ist die Verlangsamung der Hardware durch das Softwareproblem, immer wieder, aber in einem anderen Kontext.
Ornstein und Ehrlich schlugen vor, dass wir möglicherweise korrektere Entscheidungen treffen könnten, indem wir unsere Entscheidung nicht auf unserem Bauchgefühl, sondern auf Daten und Statistiken gründen. Wenn ein Softwareentwickler beispielsweise Statistiken darüber hat, wie schnell seine Software aufgebläht ist, im Verhältnis zu der Geschwindigkeit, mit der die Hardware schneller wird, trifft er möglicherweise bessere Entscheidungen darüber, was einbezogen, was ausgelassen und wie viel Algorithmen optimiert werden müssen. Mit anderen Worten, wenn sie tatsächliche Daten verwendeten, um Entscheidungen zu treffen, anstatt ihren Bauchgefühl.
Vielen Dank für die gute Frage. Manchmal sind die einfachen Fragen die besten, denke ich. es gab mir die Möglichkeit, dies aus einem neuen Blickwinkel zu betrachten. Ich hatte noch nie zuvor die Parallele zwischen dem Hardware-Software-Problem im menschlichen Kontext gesehen.
quelle
Die meisten (wenn überhaupt) Benchmarks sind nicht zuverlässig, um die Aktualität des Betriebssystems zu messen. Sofern es sich bei dem Benchmark nicht um ein USB-zu-USB-System handelt, das die Benutzeroberfläche eines anderen Computers steuert und eine Maus / Tastatur emuliert, sind die Ausführungspfade völlig anders. Die mir bekannte Langsamkeit bei PCs ist auf Treiber- / Sicherheitsupdates zurückzuführen, mit denen auch die Firmware aktualisiert werden kann (und Sie wissen nicht, ob das Firmware-Update im Treiber weiterhin vorhanden ist oder nicht). Daher ist der einzig wahre Vergleich zwischen Äpfeln und Äpfeln der Kauf von 2 Computer und schließen Sie niemals den anderen an das Internet an oder aktualisieren Sie die Treiber nach der Erstinstallation, sondern bewahren Sie sie für einen späteren Vergleich mit einem solchen externen Benchmarking-Tool auf.
Ich habe angefangen, alle Benchmarks zu vermuten, als ich einen Fall fand, in dem der Benchmark "alle guten" Zahlen zurückgab, während ein Hardwareproblem dazu führte, dass die Maus hängen blieb und das System eigentlich nur schwer kontrollierbar war - offensichtlich sind die Benchmarks von einigen niedrigen Werten nicht betroffen Level Dinge, die beeinflussen können, z. Schnelligkeit und Steuerbarkeit des PCs.
(Etwas anderer, aber ähnlicher Fall: Obwohl der Q6600 im Vergleich zum entsprechenden Ghz-Dual-Core-Test mit einem Benchmark verglichen wurde, stellte ich fest, dass die Reaktionsfähigkeit deutlich geringer war. Damals wurde dies darauf zurückgeführt, dass der Win-Vista-Scheduler mit 4 Kernen nicht gut war Da die meisten Benchmarks, die FPS anzeigen, keine winzigen Jitter erkennen, die der Benutzer fühlen würde, messen die PC-Benchmarks, die die technische Presse verwendet, keine Dinge wie "Unterbrechung, um die Latenz zu verarbeiten" und zeigen statt eines Durchschnitts die entsprechenden Statistiken an.
edit: Und wenn Sie ein solches Setup mit einem unberührten Referenz-PC durchführen, wenn dieser einen Akku hat und / oder jemals mit Strom versorgt wird, kann der Hardware-Hersteller mit einem LFO betrügen, um die Hardware verdeckt zu veralten, z. durch Verlangsamung eines Vorgangs, den Benchmarks nicht messen. Ein besserer als üblicher Spieledruck-Benchmark wäre es, z. Dosbox, Emulatoren, Latenzmessungen in VMware / Hyperv, da dies die CPU auf komplexere Weise belastet als sonst.
edit2: und wenn sie wirklich wollten, könnten sie etwas einbauen, das altert, oder einen Ultra-Low-Power-Zähler und -Kondensator oder eine winzige Batterie, die werkseitig aufgeladen wurde. Egal, ob Sie das Gerät niemals mit Strom versorgen, es könnte mit der Zeit langsamer werden, aber so etwas könnte eine Gefahr sein, wenn jemand es findet, aber es wäre nicht wirklich wichtig, wenn es nicht illegal wäre und die Geldstrafen ausreichen, um es auszuschalten des Geschäfts.
quelle