Gilt das exponentielle Wachstum der Rechenleistung noch für Desktop-Computer?

2

Gilt das exponentielle Wachstum der Desktop-Rechenleistung nicht mehr? Heute sieht es eher nach einem logarithmischen Wachstum aus.

Anfang der 1990er Jahre war eine typische Desktop-CPU beispielsweise 20,50 MIPS (386.486), im Jahr 2000 waren es 1000..3000 MIPS (Pentium III, Athlon), aber jetzt sind es nur 10000..40000 MÌPS ( Quad / Dual Cores). Zwischen 1990 und 2000 haben wir ein 100-faches Wachstum verzeichnet, zwischen 2000 und 2010 jedoch nur ein 10-faches Wachstum pro 10 Jahre.

Gleiches gilt, wenn wir GFLOPS pro Chip vergleichen. Beim Intel 486DX von 1992 waren es 0,03 GFLOPS, beim Pentium III von 2000 waren es 2 GFLOPS, und jetzt haben die meisten Desktop-CPUs im Jahr 2010 20 bis 30 GFLOPS.

Betrachten wir nun den nichtflüchtigen Speicher: <40 MB bei 1990> vs. <10 GB bei 2000> vs. <1000 GB bei 2010>. Also 1000-faches vs. 100-faches Wachstum pro Jahrzehnt.

Darüber hinaus ein flüchtiger Speicher: <2 MB bei 1990> vs. <256 MB bei 2000> vs. ca. 2 GB (oder mehr, aber nicht 20!) Bei 2010. Somit ergibt sich ein 100-faches vs. 10-faches Wachstum pro Jahrzehnt.

Bedeutet diese empirische Evidenz, dass das Wachstum der Desktop-Rechenleistung langsamer wird?

psihodelia
quelle

Antworten:

1

Na ja, irgendwann.

Hmm hört sich an wie das Gesetz der sinkenden Renditen gegen Moores Gesetz

Wenn ich meinen ökonomischen Hut aufsetzen würde, würde ich sagen, dass das Gesetz der sinkenden Renditen irgendwann gewinnen wird. Praktisch bei jedem anderen menschlichen Unterfangen. Obwohl ich die Leistungen von Gordon Moore respektiere, ist sein Gesetz eher eine strategische Geschäftsvision, die nur für eine begrenzte Zeit auf die Schaltungsdichte anwendbar ist und die Welt insgesamt nicht beschreibt. Das Gesetz der sinkenden Renditen hat eine bessere Erfolgsgeschichte.

Wenn ich meinen IT-Hut aufsetze, passt er nicht. Weil es jedes Jahr größer wird :-)

Gefahr: Diese Frage könnte für die Moderatoren zu spekulativ oder umstritten sein.

Paul
quelle
1

Ich denke, Sie sind verwirrt über "logarithmisch" versus "exponentiell". Das exponentielle Wachstum ist logarithmisch als gerade Linie dargestellt. Ich denke auch, dass Sie Kosten in "Macht" -Vergleiche einbeziehen müssen. Wenn Sie dies tun, werden Sie feststellen, dass das Wachstum weiterhin exponentiell ist.

Die Anzahl der Transistoren in Prozessoren, die sich alle zwei Jahre verdoppeln, ist das ursprüngliche Moore-Gesetz, das bis jetzt gültig geblieben ist und auf absehbare Zeit beibehalten wird. Es ist jedoch wahrscheinlich, dass irgendwann eine andere Technologie die Stelle von Transistoren einnimmt.

Transistor Count

Dennis Williamson
quelle
Nein, ich bin mir sicher, was log (x) vs. exp (x) ist :) Übrigens ist Moores Gesetz Intels Werbetrick und hat mit dieser Diskussion nichts zu tun. Ich denke nicht, dass die Anzahl der Transistoren für den Endbenutzer wichtiger ist als die Rechenleistung.
Psihodelia
1
@psihodelia: Woher kam die Idee des exponentiellen Wachstums der Rechenleistung, wenn nicht Moores Gesetz?
Dennis Williamson
Übrigens, exp (log (x)) == log (exp (x))
Dennis Williamson
1

Ich habe ein bisschen darüber nachgedacht, aber ich werde ein paar Punkte einbringen.

Die durchschnittliche Menge an RAM, die Sie für 2000 angegeben haben, ist um ein Stückchen niedriger, 32 \ 64Meg wäre genauer gewesen, und mit diesen Werten sind die Verhältnisse für 1990-2000 und 2000-2010 mehr oder weniger gleich.

MIPS & GFlops, gemessen mit Universalprozessoren, sind ziemlich nutzlose Maßeinheiten für die Rechenleistung. Systeme sind nicht darauf ausgelegt, diese Zahlen zu maximieren, was bei Allzweck-Desktopsystemen sicherlich nicht der Fall ist.

Die Festplattenkapazität hat sich in den letzten 35 Jahren um einen Faktor von 200k (5Meg auf 2TB) erhöht, seit ich zum ersten Mal ein System mit Festplatte habe, aber die Latenz beim wahlfreien Zugriff hat sich aufgrund mechanischer Probleme nur um einen Faktor von 10-15 verbessert Grenzen und die Schnittstellenbandbreite hat sich nur um einen Faktor von 200 erhöht (24 Megabits / Sek. für die frühen 90er ESDI auf 6 Gbit / s für SATA II). All dies wird jedoch mit SSDs auf den Kopf gestellt. Ignorieren Sie die Anlaufschwierigkeiten, die Leute sagten, Festplatten würden früher nie zu viel Band ersetzen, aber die Verbesserung der Latenz, die SSDs bieten, wird die Art und Weise, wie Speicher in Systeme eingebaut wird, in den nächsten drei Jahren grundlegend verändern. Festplatten verschwinden nicht, aber rotierende Platten werden nur zum seltenen Schreiben und gelegentlichen Langzeitspeichern bis zur Mitte dieses Jahrzehnts verwendet. Der Unterschied, der zu den täglichen Computererfahrungen führen wird, wenn die Betriebssystementwickler nicht mehr die Festplattenlatenzzeit umgehen müssen, die sich seit 20 Jahren nicht merklich verändert hat, wird immens sein. Und denken Sie daran, dass all dies auf den stetigen exponentiellen Anstieg der Transistordichte zurückzuführen ist, der die Festkörperspeicherung endlich in Reichweite der sich drehenden Scheiben gebracht hat.

All dies verfehlt jedoch den Punkt erheblich. Sie können die Effektivität eines modernen Computers nicht auf eine Handvoll Metriken reduzieren, die direkt mit denen von Systemen vor 20 Jahren verglichen werden können, und keine wirklich aussagekräftigen Vergleiche anstellen.

Eine Metrik, die ich mit Ihnen teilen möchte, ist, dass ich in meinem Bereich viele Serverkonsolidierungsarbeiten durchführe, bei denen ich eine große Anzahl von 3-5 Jahre alten Servern durch weitaus weniger neue Boxen ersetze, die von Natur aus nicht so viel "größer" sind. Wir konsolidieren in der Regel je nach Auslastung mit einem Verhältnis von 10-15, aber ich hätte kein Problem damit, zu sagen, dass ich 10 5 Jahre alte Dual-Socket-Server nehmen kann, die mäßig ausgelastet sind (~ 50% Auslastung), was ~ 6.000 US-Dollar neu gekostet hätte Mit 1 Dual-Socket-Server (aber jetzt 8-Core-Server), der ~ $ 6.000 kostet, und erwartet, dass er alle diese Server hostet, ohne die 50% zu überschreiten. Wir führen auch Workstation-Virtualisierungsarbeiten durch, bei denen wir dieses Verhältnis gerne verdoppeln, ohne uns Sorgen zu machen. ICH' Ich bin absolut zuversichtlich, dass ein typisches System heutzutage zehn- bis fünfzehnmal besser ist als ein 4- bis 5-jähriges System aus einem vergleichbaren Segment. Darüber hinaus führen wir all dies mit einem geringeren thermischen Stromverbrauch pro Gerät durch, sodass nicht nur die Leistung der "roten Linie" für allgemeine Computeraufgaben steigt, sondern gleichzeitig die Energieeffizienz stetig verbessert wird.

Helvick
quelle
Nur zu Ihrer Information: SSDs eignen sich gut zum Lesen, bieten jedoch eine schlechte Schreibleistung. Schleuderplatten sind immer noch besser.
gbjbaanb
Das stimmt heute (Kinderkrankheiten wie gesagt), hängt aber auch von der SSD ab und davon, ob Ihr Betriebssystem sie gut genug versteht. Eine gut konzipierte SSD, die mit einem SSD-fähigen Controller läuft, kann mühelos 10.000 kleine zufällige Schreib-IOPS aushalten. Leider kosten diese immer noch ein paar US-Dollar pro Pop, aber keine Sorge, diese Bugs werden sehr schnell ausgebügelt.
Helvick
0

Moores Gesetz bezog sich auf die Anzahl der verfügbaren Transistoren. Also ein paar Datenpunkte aus Wikipedia, typische iAPX-Chips in Abständen von zehn Jahren

  • 1980: 8088 0,029 M Transistoren
  • 1990: 80486DX 1.2M Transistoren
  • 2000: Pentium III Coppermine 28.1M Transistoren
  • 2010: Core i7 Bloomfield 781M Transistoren

also, 1980-1990, Faktor 40 1990-2000, Faktor 25 2000-2010, Faktor 27

Wenn wir ein bisschen wieseln und beachten, dass die 80er-Jahre-CPU tatsächlich einen zweiten Chip für Fließkommazahlen hatte, erhalten wir eine Erhöhung der Kapazität pro Jahrzehnt (Anzahl der Transistoren) um das 25-fache. Daher sehe ich (noch) kein Transistorwachstum, wenn der typische Desktop-Computer langsamer wird.

mpez0
quelle
0

Es hängt davon ab, was Sie unter "Wachstum der Desktop-Leistung" verstehen. Sicher, CPUs werden immer leistungsfähiger, aber die Gesamtleistung von ihnen zeigt sich nicht durch.

Ein Beispiel hierfür sind Caches - während Ihre CPU eine Milliarde Anweisungen pro Sekunde verarbeiten kann, ist nur eine kleine Programmierausnahme erforderlich, um den gesamten Cache zu löschen und die CPU zum Abrufen der Anweisungen und Daten aus dem Hauptspeicher zu veranlassen - was unglaublich langsam ist (Nach Ihren CPU-Standards). Wenn Sie Ihre CPUs also nicht mit Daten „füttern“ können, werden die metaphorischen Daumen gedreht, die Fingernägel gebissen und die Zeitung gelesen. Und Ihre Benutzer werden ihre Hände in die Luft werfen und ausrufen, "Ich habe einen super neuen PC gekauft und es dauert immer noch ewig, Dinge zu erledigen, was zum Teufel ist" (wenn die Festplatte zerschlägt und die CPU-Cache-Zeilen zwischen Threads und der Northbridge schwappen) Überhitzung beim Übertragen des RAM vom Hauptspeicher in den CPU-L3-Cache).

Und dann stellen wir unsere Daten auf die andere Seite des Netzwerks ...

Also ... ja - sie werden mächtiger. Nein - sie sind immer noch genauso langsam wie früher.

gbjbaanb
quelle