Gilt das exponentielle Wachstum der Desktop-Rechenleistung nicht mehr? Heute sieht es eher nach einem logarithmischen Wachstum aus.
Anfang der 1990er Jahre war eine typische Desktop-CPU beispielsweise 20,50 MIPS (386.486), im Jahr 2000 waren es 1000..3000 MIPS (Pentium III, Athlon), aber jetzt sind es nur 10000..40000 MÌPS ( Quad / Dual Cores). Zwischen 1990 und 2000 haben wir ein 100-faches Wachstum verzeichnet, zwischen 2000 und 2010 jedoch nur ein 10-faches Wachstum pro 10 Jahre.
Gleiches gilt, wenn wir GFLOPS pro Chip vergleichen. Beim Intel 486DX von 1992 waren es 0,03 GFLOPS, beim Pentium III von 2000 waren es 2 GFLOPS, und jetzt haben die meisten Desktop-CPUs im Jahr 2010 20 bis 30 GFLOPS.
Betrachten wir nun den nichtflüchtigen Speicher: <40 MB bei 1990> vs. <10 GB bei 2000> vs. <1000 GB bei 2010>. Also 1000-faches vs. 100-faches Wachstum pro Jahrzehnt.
Darüber hinaus ein flüchtiger Speicher: <2 MB bei 1990> vs. <256 MB bei 2000> vs. ca. 2 GB (oder mehr, aber nicht 20!) Bei 2010. Somit ergibt sich ein 100-faches vs. 10-faches Wachstum pro Jahrzehnt.
Bedeutet diese empirische Evidenz, dass das Wachstum der Desktop-Rechenleistung langsamer wird?
quelle
Ich habe ein bisschen darüber nachgedacht, aber ich werde ein paar Punkte einbringen.
Die durchschnittliche Menge an RAM, die Sie für 2000 angegeben haben, ist um ein Stückchen niedriger, 32 \ 64Meg wäre genauer gewesen, und mit diesen Werten sind die Verhältnisse für 1990-2000 und 2000-2010 mehr oder weniger gleich.
MIPS & GFlops, gemessen mit Universalprozessoren, sind ziemlich nutzlose Maßeinheiten für die Rechenleistung. Systeme sind nicht darauf ausgelegt, diese Zahlen zu maximieren, was bei Allzweck-Desktopsystemen sicherlich nicht der Fall ist.
Die Festplattenkapazität hat sich in den letzten 35 Jahren um einen Faktor von 200k (5Meg auf 2TB) erhöht, seit ich zum ersten Mal ein System mit Festplatte habe, aber die Latenz beim wahlfreien Zugriff hat sich aufgrund mechanischer Probleme nur um einen Faktor von 10-15 verbessert Grenzen und die Schnittstellenbandbreite hat sich nur um einen Faktor von 200 erhöht (24 Megabits / Sek. für die frühen 90er ESDI auf 6 Gbit / s für SATA II). All dies wird jedoch mit SSDs auf den Kopf gestellt. Ignorieren Sie die Anlaufschwierigkeiten, die Leute sagten, Festplatten würden früher nie zu viel Band ersetzen, aber die Verbesserung der Latenz, die SSDs bieten, wird die Art und Weise, wie Speicher in Systeme eingebaut wird, in den nächsten drei Jahren grundlegend verändern. Festplatten verschwinden nicht, aber rotierende Platten werden nur zum seltenen Schreiben und gelegentlichen Langzeitspeichern bis zur Mitte dieses Jahrzehnts verwendet. Der Unterschied, der zu den täglichen Computererfahrungen führen wird, wenn die Betriebssystementwickler nicht mehr die Festplattenlatenzzeit umgehen müssen, die sich seit 20 Jahren nicht merklich verändert hat, wird immens sein. Und denken Sie daran, dass all dies auf den stetigen exponentiellen Anstieg der Transistordichte zurückzuführen ist, der die Festkörperspeicherung endlich in Reichweite der sich drehenden Scheiben gebracht hat.
All dies verfehlt jedoch den Punkt erheblich. Sie können die Effektivität eines modernen Computers nicht auf eine Handvoll Metriken reduzieren, die direkt mit denen von Systemen vor 20 Jahren verglichen werden können, und keine wirklich aussagekräftigen Vergleiche anstellen.
Eine Metrik, die ich mit Ihnen teilen möchte, ist, dass ich in meinem Bereich viele Serverkonsolidierungsarbeiten durchführe, bei denen ich eine große Anzahl von 3-5 Jahre alten Servern durch weitaus weniger neue Boxen ersetze, die von Natur aus nicht so viel "größer" sind. Wir konsolidieren in der Regel je nach Auslastung mit einem Verhältnis von 10-15, aber ich hätte kein Problem damit, zu sagen, dass ich 10 5 Jahre alte Dual-Socket-Server nehmen kann, die mäßig ausgelastet sind (~ 50% Auslastung), was ~ 6.000 US-Dollar neu gekostet hätte Mit 1 Dual-Socket-Server (aber jetzt 8-Core-Server), der ~ $ 6.000 kostet, und erwartet, dass er alle diese Server hostet, ohne die 50% zu überschreiten. Wir führen auch Workstation-Virtualisierungsarbeiten durch, bei denen wir dieses Verhältnis gerne verdoppeln, ohne uns Sorgen zu machen. ICH' Ich bin absolut zuversichtlich, dass ein typisches System heutzutage zehn- bis fünfzehnmal besser ist als ein 4- bis 5-jähriges System aus einem vergleichbaren Segment. Darüber hinaus führen wir all dies mit einem geringeren thermischen Stromverbrauch pro Gerät durch, sodass nicht nur die Leistung der "roten Linie" für allgemeine Computeraufgaben steigt, sondern gleichzeitig die Energieeffizienz stetig verbessert wird.
quelle
Moores Gesetz bezog sich auf die Anzahl der verfügbaren Transistoren. Also ein paar Datenpunkte aus Wikipedia, typische iAPX-Chips in Abständen von zehn Jahren
also, 1980-1990, Faktor 40 1990-2000, Faktor 25 2000-2010, Faktor 27
Wenn wir ein bisschen wieseln und beachten, dass die 80er-Jahre-CPU tatsächlich einen zweiten Chip für Fließkommazahlen hatte, erhalten wir eine Erhöhung der Kapazität pro Jahrzehnt (Anzahl der Transistoren) um das 25-fache. Daher sehe ich (noch) kein Transistorwachstum, wenn der typische Desktop-Computer langsamer wird.
quelle
Es hängt davon ab, was Sie unter "Wachstum der Desktop-Leistung" verstehen. Sicher, CPUs werden immer leistungsfähiger, aber die Gesamtleistung von ihnen zeigt sich nicht durch.
Ein Beispiel hierfür sind Caches - während Ihre CPU eine Milliarde Anweisungen pro Sekunde verarbeiten kann, ist nur eine kleine Programmierausnahme erforderlich, um den gesamten Cache zu löschen und die CPU zum Abrufen der Anweisungen und Daten aus dem Hauptspeicher zu veranlassen - was unglaublich langsam ist (Nach Ihren CPU-Standards). Wenn Sie Ihre CPUs also nicht mit Daten „füttern“ können, werden die metaphorischen Daumen gedreht, die Fingernägel gebissen und die Zeitung gelesen. Und Ihre Benutzer werden ihre Hände in die Luft werfen und ausrufen, "Ich habe einen super neuen PC gekauft und es dauert immer noch ewig, Dinge zu erledigen, was zum Teufel ist" (wenn die Festplatte zerschlägt und die CPU-Cache-Zeilen zwischen Threads und der Northbridge schwappen) Überhitzung beim Übertragen des RAM vom Hauptspeicher in den CPU-L3-Cache).
Und dann stellen wir unsere Daten auf die andere Seite des Netzwerks ...
Also ... ja - sie werden mächtiger. Nein - sie sind immer noch genauso langsam wie früher.
quelle