Codierungspraktiken, mit denen der Compiler / Optimierer ein schnelleres Programm erstellen kann

116

Vor vielen Jahren waren C-Compiler nicht besonders intelligent. Um dieses Problem zu umgehen, hat K & R das Schlüsselwort register erfunden , um den Compiler darauf hinzuweisen, dass es möglicherweise eine gute Idee wäre, diese Variable in einem internen Register zu belassen. Sie haben auch den tertiären Operator dazu gebracht, besseren Code zu generieren.

Mit der Zeit reiften die Compiler. Sie wurden sehr schlau, da ihre Flussanalyse es ihnen ermöglichte, bessere Entscheidungen darüber zu treffen, welche Werte in Registern gespeichert werden sollen, als Sie möglicherweise tun könnten. Das Schlüsselwort register wurde unwichtig.

FORTRAN kann aufgrund von Alias- Problemen für einige Arten von Vorgängen schneller als C sein . Theoretisch kann man mit sorgfältiger Codierung diese Einschränkung umgehen, damit der Optimierer schneller Code generieren kann.

Welche Codierungsmethoden stehen zur Verfügung, mit denen der Compiler / Optimierer schneller Code generieren kann?

  • Wir würden uns freuen, wenn Sie die Plattform und den Compiler identifizieren, die Sie verwenden.
  • Warum scheint die Technik zu funktionieren?
  • Beispielcode wird empfohlen.

Hier ist eine verwandte Frage

[Bearbeiten] Bei dieser Frage geht es nicht um den gesamten Prozess zum Profilieren und Optimieren. Angenommen, das Programm wurde korrekt geschrieben, mit vollständiger Optimierung kompiliert, getestet und in Produktion genommen. Möglicherweise enthält Ihr Code Konstrukte, die den Optimierer daran hindern, die bestmögliche Arbeit zu leisten. Was können Sie tun, um diese Verbote zu überarbeiten und dem Optimierer zu ermöglichen, noch schnelleren Code zu generieren?

[Bearbeiten] Versatzbezogener Link

EvilTeach
quelle
7
Könnte ein guter Kandidat für das Community-Wiki imho sein, da es keine "einzige" endgültige Antwort auf diese (interessante) Frage gibt ...
ChristopheD
Ich vermisse es jedes Mal. Vielen Dank für den Hinweis.
EvilTeach
Mit "besser" meinen Sie einfach "schneller" oder haben Sie andere Kriterien für hervorragende Leistungen im Auge?
High Performance Mark
1
Es ist ziemlich schwierig, einen guten Registerzuweiser zu schreiben, insbesondere portabel, und die Registerzuweisung ist für die Leistung und die Codegröße unbedingt erforderlich. registerDurch die Bekämpfung schlechter Compiler wurde leistungsempfindlicher Code portabler.
Potatoswatter
1
@EvilTeach: Community-Wiki bedeutet nicht "keine endgültige Antwort", es ist nicht gleichbedeutend mit dem subjektiven Tag. Community-Wiki bedeutet, dass Sie Ihren Beitrag an die Community übergeben möchten, damit andere ihn bearbeiten können. Fühlen Sie sich nicht gezwungen, Ihre Fragen zu beantworten, wenn Sie keine Lust dazu haben.
Julia

Antworten:

54

Schreiben Sie in lokale Variablen und geben Sie keine Argumente aus! Dies kann eine große Hilfe sein, um Aliasing-Verlangsamungen zu umgehen. Zum Beispiel, wenn Ihr Code so aussieht

void DoSomething(const Foo& foo1, const Foo* foo2, int numFoo, Foo& barOut)
{
    for (int i=0; i<numFoo, i++)
    {
         barOut.munge(foo1, foo2[i]);
    }
}

Der Compiler kennt foo1! = barOut nicht und muss daher foo1 jedes Mal durch die Schleife neu laden. Es kann auch foo2 [i] erst lesen, wenn das Schreiben in barOut abgeschlossen ist. Sie könnten anfangen, mit eingeschränkten Zeigern herumzuspielen, aber es ist genauso effektiv (und viel klarer), dies zu tun:

void DoSomethingFaster(const Foo& foo1, const Foo* foo2, int numFoo, Foo& barOut)
{
    Foo barTemp = barOut;
    for (int i=0; i<numFoo, i++)
    {
         barTemp.munge(foo1, foo2[i]);
    }
    barOut = barTemp;
}

Es klingt albern, aber der Compiler kann mit der lokalen Variablen viel schlauer umgehen, da er sich möglicherweise nicht mit einem der Argumente im Speicher überschneiden kann. Dies kann Ihnen helfen, den gefürchteten Load-Hit-Store zu vermeiden (von Francis Boivin in diesem Thread erwähnt).

Celion
quelle
7
Dies hat den zusätzlichen Vorteil, dass die Dinge häufig auch für Programmierer leichter zu lesen / zu verstehen sind, da sie sich auch nicht um mögliche nicht offensichtliche Nebenwirkungen sorgen müssen.
Michael Burr
Die meisten IDEs zeigen standardmäßig lokale Variablen an, daher wird weniger
getippt
9
Sie können diese Optimierung auch aktivieren, indem Sie eingeschränkte Zeiger verwenden
Ben Voigt
4
@ Ben - das stimmt, aber ich denke, dieser Weg ist klarer. Wenn sich Eingabe und Ausgabe überlappen, ist das Ergebnis meines Erachtens nicht mit eingeschränkten Zeigern angegeben (wahrscheinlich wird zwischen Debug und Release ein anderes Verhalten angezeigt), während dieser Weg zumindest konsistent ist. Versteh mich nicht falsch, ich benutze gerne Restrict, aber ich brauche es nicht noch mehr.
Celion
Man muss nur hoffen, dass in Foo kein Kopiervorgang definiert ist, der ein paar
Megadaten kopiert ;-)
76

Hier ist eine Codierungspraxis, die dem Compiler hilft, schnellen Code zu erstellen - jede Sprache, jede Plattform, jeder Compiler, jedes Problem:

Sie nicht verwenden , um alle cleveren Tricks , die Kraft oder sogar ermutigen, den Compiler Variablen im Speicher - Layout (einschließlich Cache und Register) , wie Sie am besten denken. Schreiben Sie zuerst ein Programm, das korrekt und wartbar ist.

Als nächstes profilieren Sie Ihren Code.

Dann und nur dann möchten Sie möglicherweise die Auswirkungen untersuchen, wenn Sie dem Compiler mitteilen, wie der Speicher verwendet wird. Nehmen Sie jeweils 1 Änderung vor und messen Sie die Auswirkungen.

Erwarten Sie, enttäuscht zu sein und in der Tat sehr hart für kleine Leistungsverbesserungen arbeiten zu müssen. Moderne Compiler für ausgereifte Sprachen wie Fortran und C sind sehr, sehr gut. Wenn Sie einen Bericht über einen „Trick“ lesen, um eine bessere Leistung des Codes zu erzielen, denken Sie daran, dass die Compiler-Autoren auch darüber gelesen haben und ihn, falls es sich lohnt, wahrscheinlich implementiert haben. Sie haben wahrscheinlich geschrieben, was Sie zuerst gelesen haben.

High Performance Mark
quelle
20
Compiier-Entwickler haben wie alle anderen eine begrenzte Zeit. Nicht alle Optimierungen schaffen es in den Compiler. Wie &vs. %für Zweierpotenzen (selten, wenn überhaupt, optimiert, kann aber erhebliche Auswirkungen auf die Leistung haben). Wenn Sie einen Trick für die Leistung lesen, können Sie nur feststellen, ob er funktioniert, indem Sie die Änderung vornehmen und die Auswirkungen messen. Gehen Sie niemals davon aus, dass der Compiler etwas für Sie optimiert.
Dave Jarvis
22
& und% ist so gut wie immer optimiert, zusammen mit den meisten anderen billigen arithmetischen Tricks. Was nicht optimiert wird, ist der Fall, dass der rechte Operand eine Variable ist, die zufällig immer eine Zweierpotenz ist.
Potatoswatter
8
Zur Verdeutlichung habe ich einige Leser verwirrt: Der Ratschlag in der von mir vorgeschlagenen Codierungspraxis besteht darin, zunächst einen einfachen Code zu entwickeln, der keine Anweisungen zum Speicherlayout verwendet, um eine Leistungsgrundlage festzulegen. Probieren Sie dann die Dinge einzeln aus und messen Sie ihre Auswirkungen. Ich habe keine Beratung zur Durchführung von Operationen angeboten.
High Performance Mark
17
Für eine konstante Leistung von zwei Kindern n, gcc ersetzt % nmit , & (n-1) auch wenn Optimierung deaktiviert ist . Das ist nicht gerade "selten, wenn überhaupt" ...
Porculus
12
% KANN aufgrund der idiotischen Regeln von C für die negative Ganzzahldivision NICHT als & optimiert werden, wenn der Typ signiert ist (auf 0 runden und negativen Rest haben, anstatt abzurunden und immer positiven Rest zu haben). Und die meiste Zeit verwenden ignorante Programmierer signierte Typen ...
R .. GitHub STOP HELPING ICE
47

Die Reihenfolge, in der Sie den Speicher durchlaufen, kann tiefgreifende Auswirkungen auf die Leistung haben, und Compiler sind nicht wirklich gut darin, dies herauszufinden und zu beheben. Wenn Sie Code schreiben, müssen Sie sich der Bedenken hinsichtlich der Cache-Lokalität bewusst sein, wenn Sie Wert auf Leistung legen. Beispielsweise werden zweidimensionale Arrays in C im Zeilenhauptformat zugewiesen. Das Durchlaufen von Arrays im Spaltenhauptformat führt dazu, dass Sie mehr Cache-Fehler haben und Ihr Programm mehr an den Speicher gebunden ist als an den Prozessor:

#define N 1000000;
int matrix[N][N] = { ... };

//awesomely fast
long sum = 0;
for(int i = 0; i < N; i++){
  for(int j = 0; j < N; j++){
    sum += matrix[i][j];
  }
}

//painfully slow
long sum = 0;
for(int i = 0; i < N; i++){
  for(int j = 0; j < N; j++){
    sum += matrix[j][i];
  }
}
vicatcu
quelle
Genau genommen handelt es sich nicht um ein Optimierungsproblem, sondern um ein Optimierungsproblem.
EvilTeach
10
Sicher ist es ein Optimierungsproblem. Seit Jahrzehnten schreiben die Leute Artikel über die Optimierung des automatischen Schleifenaustauschs.
Phil Miller
20
@ Potatoswatter Worüber sprichst du? Der C-Compiler kann tun, was er will, solange das gleiche Endergebnis beobachtet wird, und tatsächlich hat GCC 4.4 -floop-interchangeeine innere und eine äußere Schleife, wenn der Optimierer dies für rentabel hält.
Ephemient
2
Huh, los geht's. Die C-Semantik wird häufig durch Aliasing-Probleme beeinträchtigt. Ich denke, der wahre Rat hier ist, diese Flagge zu übergeben!
Potatoswatter
36

Allgemeine Optimierungen

Hier einige meiner Lieblingsoptimierungen. Ich habe tatsächlich die Ausführungszeiten verlängert und die Programmgröße reduziert, indem ich diese verwendet habe.

Deklarieren Sie kleine Funktionen als inlineoder Makros

Jeder Aufruf einer Funktion (oder Methode) verursacht Overhead, z. B. das Verschieben von Variablen auf den Stapel. Einige Funktionen können auch bei der Rücksendung einen Overhead verursachen. Eine ineffiziente Funktion oder Methode enthält weniger Anweisungen als der kombinierte Overhead. Dies sind gute Kandidaten für Inlining, sei es als #defineMakros oder als inlineFunktion. (Ja, ich weiß, es inlineist nur ein Vorschlag, aber in diesem Fall betrachte ich ihn als Erinnerung an den Compiler.)

Entfernen Sie toten und redundanten Code

Wenn der Code nicht verwendet wird oder nicht zum Ergebnis des Programms beiträgt, entfernen Sie ihn.

Vereinfachen Sie das Design von Algorithmen

Ich habe einmal viel Assembler-Code und Ausführungszeit aus einem Programm entfernt, indem ich die berechnete algebraische Gleichung aufgeschrieben und dann den algebraischen Ausdruck vereinfacht habe. Die Implementierung des vereinfachten algebraischen Ausdrucks nahm weniger Platz und Zeit in Anspruch als die ursprüngliche Funktion.

Abwickeln der Schleife

Jede Schleife hat einen Aufwand für die Inkrementierung und Abschlussprüfung. Um eine Schätzung des Leistungsfaktors zu erhalten, zählen Sie die Anzahl der Anweisungen im Overhead (mindestens 3: Inkrementieren, Überprüfen, zum Start der Schleife) und dividieren Sie durch die Anzahl der Anweisungen innerhalb der Schleife. Je niedriger die Zahl, desto besser.

Bearbeiten: Geben Sie ein Beispiel für das Abrollen der Schleife. Vorher:

unsigned int sum = 0;
for (size_t i; i < BYTES_TO_CHECKSUM; ++i)
{
    sum += *buffer++;
}

Nach dem Abrollen:

unsigned int sum = 0;
size_t i = 0;
**const size_t STATEMENTS_PER_LOOP = 8;**
for (i = 0; i < BYTES_TO_CHECKSUM; **i = i / STATEMENTS_PER_LOOP**)
{
    sum += *buffer++; // 1
    sum += *buffer++; // 2
    sum += *buffer++; // 3
    sum += *buffer++; // 4
    sum += *buffer++; // 5
    sum += *buffer++; // 6
    sum += *buffer++; // 7
    sum += *buffer++; // 8
}
// Handle the remainder:
for (; i < BYTES_TO_CHECKSUM; ++i)
{
    sum += *buffer++;
}

In diesem Vorteil wird ein sekundärer Vorteil erzielt: Es werden mehr Anweisungen ausgeführt, bevor der Prozessor den Anweisungscache neu laden muss.

Ich habe erstaunliche Ergebnisse erzielt, als ich eine Schleife mit 32 Anweisungen abgewickelt habe. Dies war einer der Engpässe, da das Programm eine Prüfsumme für eine 2-GB-Datei berechnen musste. Diese Optimierung in Kombination mit dem Blocklesen verbesserte die Leistung von 1 Stunde auf 5 Minuten. Das Abrollen der Schleife lieferte auch in Assemblersprache eine hervorragende Leistung. Meine memcpywar viel schneller als die des Compilers memcpy. - TM

Reduzierung von ifAussagen

Prozessoren hassen Verzweigungen oder Sprünge, da sie den Prozessor zwingen, seine Anweisungswarteschlange neu zu laden.

Boolesche Arithmetik ( Bearbeitet: Codeformat auf Codefragment angewendet, Beispiel hinzugefügt)

Konvertieren Sie ifAnweisungen in boolesche Zuweisungen. Einige Prozessoren können Anweisungen ohne Verzweigung bedingt ausführen:

bool status = true;
status = status && /* first test */;
status = status && /* second test */;

Der Kurzschluss des logischen UND- Operators ( &&) verhindert die Ausführung der Tests, wenn dies der Fall statusist false.

Beispiel:

struct Reader_Interface
{
  virtual bool  write(unsigned int value) = 0;
};

struct Rectangle
{
  unsigned int origin_x;
  unsigned int origin_y;
  unsigned int height;
  unsigned int width;

  bool  write(Reader_Interface * p_reader)
  {
    bool status = false;
    if (p_reader)
    {
       status = p_reader->write(origin_x);
       status = status && p_reader->write(origin_y);
       status = status && p_reader->write(height);
       status = status && p_reader->write(width);
    }
    return status;
};

Zuordnung von Faktorvariablen außerhalb von Schleifen

Wenn eine Variable im laufenden Betrieb innerhalb einer Schleife erstellt wird, verschieben Sie die Erstellung / Zuordnung vor die Schleife. In den meisten Fällen muss die Variable nicht bei jeder Iteration zugewiesen werden.

Faktor konstante Ausdrücke außerhalb von Schleifen

Wenn eine Berechnung oder ein variabler Wert nicht vom Schleifenindex abhängt, verschieben Sie ihn außerhalb (vor) der Schleife.

E / A in Blöcken

Lesen und Schreiben von Daten in großen Blöcken. Je größer desto besser. Zum Beispiel ist das Lesen von jeweils einem Oktekt weniger effizient als das Lesen von 1024 Oktetten mit einem Lesevorgang.
Beispiel:

static const char  Menu_Text[] = "\n"
    "1) Print\n"
    "2) Insert new customer\n"
    "3) Destroy\n"
    "4) Launch Nasal Demons\n"
    "Enter selection:  ";
static const size_t Menu_Text_Length = sizeof(Menu_Text) - sizeof('\0');
//...
std::cout.write(Menu_Text, Menu_Text_Length);

Die Effizienz dieser Technik kann visuell demonstriert werden. :-)

Verwenden Sie printf family nicht für konstante Daten

Konstante Daten können mit einem Blockschreibvorgang ausgegeben werden. Beim formatierten Schreiben wird Zeit damit verschwendet, den Text nach Formatierungen zu durchsuchen oder Formatierungsbefehle zu verarbeiten. Siehe obiges Codebeispiel.

In den Speicher formatieren und dann schreiben

Formatieren Sie charmit mehreren in ein Array und verwenden Sie sprintfdann fwrite. Dadurch kann das Datenlayout auch in "konstante Abschnitte" und variable Abschnitte unterteilt werden. Denken Sie an Seriendruck .

Deklarieren Sie konstanten Text (String-Literale) als static const

Wenn Variablen ohne das deklariert werden static, weisen einige Compiler möglicherweise Speicherplatz auf dem Stapel zu und kopieren die Daten aus dem ROM. Dies sind zwei unnötige Operationen. Dies kann mithilfe des staticPräfixes behoben werden .

Schließlich Code wie der Compiler würde

Manchmal kann der Compiler mehrere kleine Anweisungen besser optimieren als eine komplizierte Version. Auch das Schreiben von Code zur Optimierung des Compilers hilft. Wenn der Compiler spezielle Blockübertragungsanweisungen verwenden soll, schreibe ich Code, der die speziellen Anweisungen verwenden sollte.

Thomas Matthews
quelle
2
Interessant ist, dass Sie ein Beispiel angeben können, bei dem Sie mit ein paar kleinen Anweisungen anstelle einer größeren Code besseren Code erhalten haben. Können Sie ein Beispiel für das Umschreiben eines if mithilfe von Booleschen Werten zeigen? Im Allgemeinen würde ich die Schleife dem Compiler überlassen, da sie wahrscheinlich ein besseres Gefühl für die Cache-Größe hat. Ich bin ein bisschen überrascht über die Idee, zu sprinten und dann zu schreiben. Ich würde denken, dass fprintf das tatsächlich unter der Haube macht. Können Sie hier etwas mehr Details geben?
EvilTeach
1
Es gibt keine Garantie dafür, dass fprintfFormate in einem separaten Puffer den Puffer ausgeben. Eine optimierte (zur Verwendung des Speichers) fprintfwürde den gesamten unformatierten Text ausgeben, dann formatieren und ausgeben und wiederholen, bis die gesamte Formatzeichenfolge verarbeitet ist, wodurch für jeden Ausgabetyp (formatiert vs. unformatiert) 1 Ausgabeaufruf ausgeführt wird. Andere Implementierungen müssten für jeden Aufruf dynamisch Speicher zuweisen, um die gesamte neue Zeichenfolge zu speichern (was in einer Umgebung mit eingebetteten Systemen schlecht ist). Mein Vorschlag reduziert die Anzahl der Ausgänge.
Thomas Matthews
3
Ich habe einmal eine signifikante Leistungsverbesserung durch Aufrollen einer Schleife erzielt. Dann fand ich heraus, wie man es durch Indirektion enger aufrollt, und das Programm wurde merklich schneller. (Die Profilerstellung ergab, dass diese bestimmte Funktion 60-80% der Laufzeit ausmacht, und ich habe die Leistung vorher und nachher sorgfältig getestet.) Ich glaube, die Verbesserung war auf eine bessere Lokalität zurückzuführen, bin mir aber nicht ganz sicher.
David Thornley
16
Viele davon sind Programmiereroptimierungen und keine Möglichkeiten für Programmierer, dem Compiler bei der Optimierung zu helfen, was der Kern der ursprünglichen Frage war. Zum Beispiel das Abrollen der Schleife. Ja, Sie können Ihr eigenes Abrollen durchführen, aber ich denke, es ist interessanter herauszufinden, welche Hindernisse der Compiler für Sie beim Abrollen hat, und diese zu entfernen.
Adrian McCarthy
26

Der Optimierer hat nicht wirklich die Kontrolle über die Leistung Ihres Programms. Verwenden Sie geeignete Algorithmen und Strukturen sowie Profil, Profil, Profil.

Das heißt, Sie sollten eine kleine Funktion aus einer Datei in einer anderen Datei nicht in einer inneren Schleife ausführen, da dies verhindert, dass sie inline wird.

Vermeiden Sie nach Möglichkeit die Adresse einer Variablen. Nach einem Zeiger zu fragen ist nicht "frei", da dies bedeutet, dass die Variable im Speicher gehalten werden muss. Sogar ein Array kann in Registern gespeichert werden, wenn Sie Zeiger vermeiden - dies ist für die Vektorisierung unerlässlich.

Was zum nächsten Punkt führt, lesen Sie das Handbuch ^ # $ @ ! GCC kann einfachen C-Code vektorisieren, wenn Sie ein __restrict__Hier und ein __attribute__( __aligned__ )Dort streuen . Wenn Sie etwas sehr Spezifisches vom Optimierer wünschen, müssen Sie möglicherweise spezifisch sein.

Kartoffelklatsche
quelle
14
Dies ist eine gute Antwort, aber beachten Sie, dass die Optimierung des gesamten Programms immer beliebter wird und tatsächlich Funktionen über Übersetzungseinheiten hinweg inline ausführen kann.
Phil Miller
1
@Novelocrat Yep - natürlich war ich sehr überrascht, als ich zum ersten Mal etwas sah, in das A.cich hineingezogen wurde B.c.
Jonathon Reinhart
18

Bei den meisten modernen Prozessoren ist der Speicher der größte Engpass.

Aliasing: Load-Hit-Store kann in einer engen Schleife verheerend sein. Wenn Sie einen Speicherort lesen und in einen anderen schreiben und wissen, dass sie nicht zusammenhängend sind, kann das sorgfältige Einfügen eines Alias-Schlüsselworts in die Funktionsparameter dem Compiler wirklich helfen, schnelleren Code zu generieren. Wenn sich die Speicherbereiche jedoch überschneiden und Sie 'Alias' verwendet haben, steht Ihnen eine gute Debugging-Sitzung mit undefinierten Verhaltensweisen bevor!

Cache-Miss: Ich bin mir nicht sicher, wie Sie dem Compiler helfen können, da er größtenteils algorithmisch ist, aber es gibt einige Möglichkeiten, den Speicher vorab abzurufen.

Versuchen Sie auch nicht, Gleitkommawerte zu oft in int und umgekehrt zu konvertieren, da sie unterschiedliche Register verwenden. Wenn Sie von einem Typ in einen anderen konvertieren, rufen Sie den eigentlichen Konvertierungsbefehl auf, schreiben den Wert in den Speicher und lesen ihn im richtigen Registersatz zurück .

Francis Boivin
quelle
4
+1 für Load-Hit-Stores und verschiedene Registertypen. Ich bin mir nicht sicher, wie groß das Geschäft in x86 ist, aber sie zerstören PowerPC (z. B. Xbox360 und Playstation3).
Celion
Die meisten Artikel über Techniken zur Optimierung von Compiler-Schleifen setzen eine perfekte Verschachtelung voraus, was bedeutet, dass der Körper jeder Schleife mit Ausnahme der innersten nur eine andere Schleife ist. Diese Papiere diskutieren einfach nicht die Schritte, die notwendig sind, um solche zu verallgemeinern, selbst wenn es sehr klar ist, dass sie sein können. Daher würde ich erwarten, dass viele Implementierungen diese Verallgemeinerungen aufgrund des damit verbundenen zusätzlichen Aufwands nicht wirklich unterstützen. Daher funktionieren die vielen Algorithmen zur Optimierung der Cache-Nutzung in Schleifen bei perfekten Nestern möglicherweise viel besser als bei unvollständigen Nestern.
Phil Miller
11

Die überwiegende Mehrheit des Codes, den die Leute schreiben, ist E / A-gebunden (ich glaube, der gesamte Code, den ich in den letzten 30 Jahren für Geld geschrieben habe, war so gebunden), daher werden die Aktivitäten des Optimierers für die meisten Leute akademisch sein.

Ich möchte die Leute jedoch daran erinnern, dass Sie den Compiler anweisen müssen, um den Code zu optimieren, damit er optimiert werden kann. Viele Leute (auch ich, wenn ich es vergesse) veröffentlichen hier C ++ - Benchmarks, die ohne Aktivierung des Optimierers bedeutungslos sind.

anon
quelle
7
Ich gebe zu, eigenartig zu sein - ich arbeite an großen wissenschaftlichen Codes für die Zahlenverarbeitung, die an die Speicherbandbreite gebunden sind. Für die allgemeine Programmbevölkerung stimme ich Neil zu.
High Performance Mark
6
Wahr; Aber heutzutage ist sehr viel von diesem E / A-gebundenen Code in Sprachen geschrieben, die praktisch Pessimierer sind - Sprachen, die nicht einmal Compiler haben. Ich vermute, dass die Bereiche, in denen C und C ++ noch verwendet werden, eher Bereiche sind, in denen es wichtiger ist, etwas zu optimieren (CPU-Auslastung, Speichernutzung, Codegröße ...)
Porculus
3
Ich habe die meisten der letzten 30 Jahre damit verbracht, mit sehr wenig E / A an Code zu arbeiten. Speichern Sie für 2 Jahre mit Datenbanken. Grafik, Steuerungssysteme, Simulation - nichts davon E / A-gebunden. Wenn I / O der Engpass der meisten Menschen wäre, würden wir Intel und AMD nicht viel Aufmerksamkeit schenken.
Phkahler
2
Ja, ich kaufe dieses Argument nicht wirklich - sonst würden wir (bei meiner Arbeit) nicht nach Möglichkeiten suchen, mehr Rechenzeit für I / O zu verwenden. Außerdem war ein Großteil der E / A-gebundenen Software, auf die ich gestoßen bin, E / A-gebunden, da die E / A schlampig ausgeführt wurde. Wenn man die Zugriffsmuster optimiert (genau wie beim Speicher), kann man enorme Leistungssteigerungen erzielen.
Dash-Tom-Bang
3
Ich habe kürzlich festgestellt, dass fast kein in der C ++ - Sprache geschriebener Code an E / A gebunden ist. Sicher, wenn Sie eine Betriebssystemfunktion für die Übertragung von Massenfestplatten aufrufen, wird Ihr Thread möglicherweise in die E / A-Wartezeit versetzt (aber beim Caching ist selbst das fraglich). Aber die üblichen Funktionen der E / A-Bibliothek, die jeder empfiehlt, weil sie Standard und portabel sind, sind im Vergleich zur modernen Festplattentechnologie (selbst bei moderaten Preisen) tatsächlich miserabel langsam. Höchstwahrscheinlich ist E / A nur dann der Engpass, wenn Sie nach dem Schreiben von nur wenigen Bytes den gesamten Weg auf die Festplatte leeren. OTOH, UI ist eine andere Sache, wir Menschen sind langsam.
Ben Voigt
11

Verwenden Sie die Konstantenkorrektheit so oft wie möglich in Ihrem Code. Dadurch kann der Compiler viel besser optimieren.

In diesem Dokument finden Sie viele weitere Optimierungstipps: CPP-Optimierungen (ein etwas altes Dokument)

Highlights:

  • Verwenden Sie Konstruktorinitialisierungslisten
  • Verwenden Sie Präfixoperatoren
  • Verwenden Sie explizite Konstruktoren
  • Inline-Funktionen
  • Vermeiden Sie temporäre Objekte
  • Beachten Sie die Kosten für virtuelle Funktionen
  • Objekte über Referenzparameter zurückgeben
  • pro Klassenzuordnung berücksichtigen
  • Betrachten Sie stl Container Allokatoren
  • die Optimierung 'leeres Mitglied'
  • etc
Kröte
quelle
8
Nicht viel, selten. Es verbessert jedoch die tatsächliche Korrektheit.
Potatoswatter
5
In C und C ++ kann der Compiler const nicht zur Optimierung verwenden, da das Wegwerfen ein genau definiertes Verhalten ist.
Dsimcha
+1: const ist ein gutes Beispiel für etwas, das sich direkt auf den kompilierten Code auswirkt. Kommentar von re @ dsimcha - Ein guter Compiler wird testen, ob dies passiert. Natürlich wird ein guter Compiler const-Elemente "finden", die sowieso nicht so deklariert sind ...
Hogan
@dsimcha: Ändern eines const und restrict qualifizierte Zeiger jedoch undefiniert. Ein Compiler könnte in einem solchen Fall also anders optimieren.
Dietrich Epp
6
@dsimcha, das consteinen constVerweis oder constZeiger auf ein Nicht- constObjekt wegwirft, ist genau definiert. Das Ändern eines tatsächlichen constObjekts (dh eines Objekts, das als constursprünglich deklariert wurde ) ist dies nicht.
Stephen Lin
9

Versuchen Sie, so viel wie möglich mit statischer Einzelzuweisung zu programmieren. SSA ist genau das Gleiche wie das, was Sie in den meisten funktionalen Programmiersprachen erhalten, und genau das konvertieren die meisten Compiler Ihren Code, um ihre Optimierungen vorzunehmen, da es einfacher ist, damit zu arbeiten. Auf diese Weise werden Stellen ans Licht gebracht, an denen der Compiler verwirrt werden könnte. Außerdem funktionieren alle bis auf die schlechtesten Registerzuordnungen genauso gut wie die besten Registerzuordnungen, und Sie können einfacher debuggen, da Sie sich fast nie fragen müssen, woher eine Variable ihren Wert hat, da nur eine Stelle zugewiesen wurde.
Vermeiden Sie globale Variablen.

Wenn Sie mit Daten per Referenz oder Zeiger arbeiten, ziehen Sie diese in lokale Variablen, erledigen Sie Ihre Arbeit und kopieren Sie sie dann zurück. (es sei denn, Sie haben einen guten Grund, dies nicht zu tun)

Nutzen Sie den fast kostenlosen Vergleich mit 0, den Ihnen die meisten Prozessoren bei mathematischen oder logischen Operationen geben. Sie erhalten fast immer ein Flag für == 0 und <0, von dem Sie leicht 3 Bedingungen erhalten können:

x= f();
if(!x){
   a();
} else if (x<0){
   b();
} else {
   c();
}

ist fast immer billiger als das Testen auf andere Konstanten.

Ein weiterer Trick besteht darin, die Subtraktion zu verwenden, um einen Vergleich beim Bereichstest zu eliminieren.

#define FOO_MIN 8
#define FOO_MAX 199
int good_foo(int foo) {
    unsigned int bar = foo-FOO_MIN;
    int rc = ((FOO_MAX-FOO_MIN) < bar) ? 1 : 0;
    return rc;
} 

Dies kann sehr oft einen Sprung in Sprachen vermeiden, die boolesche Ausdrücke kurzschließen, und verhindert, dass der Compiler versuchen muss, mit dem Ergebnis des ersten Vergleichs Schritt zu halten, während er den zweiten ausführt und diese dann kombiniert. Dies mag so aussehen, als hätte es das Potenzial, ein zusätzliches Register zu verbrauchen, aber es tut es fast nie. Oft brauchst du sowieso kein Foo mehr und wenn du es tust, wird RC noch nicht verwendet, damit es dorthin gehen kann.

Wenn Sie die Zeichenfolgenfunktionen in c (strcpy, memcpy, ...) verwenden, denken Sie daran, was sie zurückgeben - das Ziel! Sie können häufig besseren Code erhalten, indem Sie Ihre Kopie des Zeigers auf das Ziel "vergessen" und ihn einfach von der Rückgabe dieser Funktionen zurückholen.

Übersehen Sie niemals die Möglichkeit, genau das zurückzugeben, was die zuletzt aufgerufene Funktion zurückgegeben hat. Compiler sind nicht so gut darin, Folgendes zu erfassen:

foo_t * make_foo(int a, int b, int c) {
        foo_t * x = malloc(sizeof(foo));
        if (!x) {
             // return NULL;
             return x; // x is NULL, already in the register used for returns, so duh
        }
        x->a= a;
        x->b = b;
        x->c = c;
        return x;
}

Natürlich können Sie die Logik in diesem Fall umkehren, wenn Sie nur einen Rückgabepunkt haben.

(Tricks, an die ich mich später erinnerte)

Es ist immer eine gute Idee, Funktionen als statisch zu deklarieren, wenn Sie können. Wenn der Compiler sich selbst beweisen kann, dass er jeden Aufrufer einer bestimmten Funktion berücksichtigt hat, kann er im Namen der Optimierung die Aufrufkonventionen für diese Funktion brechen. Compiler können häufig vermeiden, Parameter in Register oder Stapelpositionen zu verschieben, in denen aufgerufene Funktionen normalerweise erwarten, dass sich ihre Parameter befinden (dazu müssen sowohl die aufgerufene Funktion als auch die Position aller Aufrufer abweichen). Der Compiler kann auch häufig den Vorteil nutzen, zu wissen, welchen Speicher und welche Register die aufgerufene Funktion benötigt, und vermeiden, Code zu generieren, um Variablenwerte in Registern oder Speicherstellen beizubehalten, die die aufgerufene Funktion nicht stört. Dies funktioniert besonders gut, wenn nur wenige Funktionen aufgerufen werden.

nategoose
quelle
2
Es ist eigentlich nicht notwendig, Subtraktion zu verwenden, wenn Bereiche, LLVM, GCC und mein Compiler dies zumindest automatisch testen. Nur wenige Leute würden wahrscheinlich verstehen, was der Code mit Subtraktion tut und noch weniger, warum er tatsächlich funktioniert.
Gratian Lup
Im obigen Beispiel kann b () nicht aufgerufen werden, da a () aufgerufen wird, wenn (x <0).
EvilTeach
@ EvilTeach Nein, wird es nicht. Der Vergleich, der zum Aufruf von a () führt, ist! X
nategoose
@nategoose. Wenn x -3 ist, dann ist! x wahr.
EvilTeach
@ EvilTeach In C 0 ist falsch und alles andere ist wahr, also -3 ist wahr, also! -3 ist falsch
nategoose
9

Ich habe einen optimierenden C-Compiler geschrieben und hier sind einige sehr nützliche Dinge zu beachten:

  1. Machen Sie die meisten Funktionen statisch. Auf diese Weise kann die interprozedurale Konstantenausbreitung und Alias-Analyse ihre Aufgabe erfüllen. Andernfalls muss der Compiler davon ausgehen, dass die Funktion von außerhalb der Übersetzungseinheit mit völlig unbekannten Werten für die Parameter aufgerufen werden kann. Wenn Sie sich die bekannten Open-Source-Bibliotheken ansehen, markieren alle Funktionen statisch, mit Ausnahme derjenigen, die wirklich extern sein müssen.

  2. Wenn globale Variablen verwendet werden, markieren Sie diese nach Möglichkeit als statisch und konstant. Wenn sie einmal initialisiert werden (schreibgeschützt), ist es besser, eine Initialisierungsliste wie static const int VAL [] = {1,2,3,4} zu verwenden, da der Compiler sonst möglicherweise nicht erkennt, dass die Variablen tatsächlich initialisierte Konstanten und sind Lasten aus der Variablen können nicht durch die Konstanten ersetzt werden.

  3. Verwenden Sie NIEMALS ein goto innerhalb einer Schleife, die Schleife wird von den meisten Compilern nicht mehr erkannt und es wird keine der wichtigsten Optimierungen angewendet.

  4. Verwenden Sie Zeigerparameter nur bei Bedarf und markieren Sie sie nach Möglichkeit als eingeschränkt. Dies hilft der Alias-Analyse sehr, da der Programmierer garantiert, dass kein Alias ​​vorhanden ist (die interprocedurale Alias-Analyse ist normalerweise sehr primitiv). Sehr kleine Strukturobjekte sollten als Wert und nicht als Referenz übergeben werden.

  5. Verwenden Sie nach Möglichkeit Arrays anstelle von Zeigern, insbesondere innerhalb von Schleifen (a [i]). Ein Array bietet normalerweise mehr Informationen für die Alias-Analyse und nach einigen Optimierungen wird ohnehin derselbe Code generiert (Suche nach Reduzierung der Schleifenstärke, wenn Sie neugierig sind). Dies erhöht auch die Wahrscheinlichkeit, dass eine schleifeninvariante Codebewegung angewendet wird.

  6. Versuchen Sie, Aufrufe außerhalb der Schleife an große Funktionen oder externe Funktionen zu senden, die keine Nebenwirkungen haben (hängen Sie nicht von der aktuellen Schleifeniteration ab). Kleine Funktionen werden in vielen Fällen inline oder in Intrinsics konvertiert, die leicht zu heben sind, aber große Funktionen scheinen für den Compiler Nebenwirkungen zu haben, wenn sie dies tatsächlich nicht tun. Nebenwirkungen für externe Funktionen sind völlig unbekannt, mit Ausnahme einiger Funktionen aus der Standardbibliothek, die manchmal von einigen Compilern modelliert werden und eine schleifeninvariante Codebewegung ermöglichen.

  7. Wenn Sie Tests mit mehreren Bedingungen schreiben, platzieren Sie die wahrscheinlichste zuerst. if (a || b || c) sollte if (b || a || c) sein, wenn b eher wahr ist als die anderen. Compiler wissen normalerweise nichts über die möglichen Werte der Bedingungen und welche Zweige mehr genommen werden (sie könnten anhand von Profilinformationen bekannt sein, aber nur wenige Programmierer verwenden sie).

  8. Die Verwendung eines Schalters ist schneller als die Durchführung eines Tests wie if (a || b || ... || z). Überprüfen Sie zuerst, ob Ihr Compiler dies automatisch tut, einige tun es und es ist besser lesbar, das if zu haben .

Gratian Lup
quelle
7

Bei eingebetteten Systemen und in C / C ++ geschriebenem Code versuche ich, eine dynamische Speicherzuweisung zu vermeiden so weit wie möglich zu . Der Hauptgrund, warum ich dies tue, ist nicht unbedingt die Leistung, aber diese Faustregel hat Auswirkungen auf die Leistung.

Algorithmen, die zum Verwalten des Heaps verwendet werden, sind auf einigen Plattformen (z. B. vxworks) notorisch langsam. Schlimmer noch, die Zeit, die benötigt wird, um von einem Anruf an malloc zurückzukehren, hängt stark vom aktuellen Status des Heaps ab. Daher wird jede Funktion, die malloc aufruft, einen Leistungseinbruch erleiden, der nicht einfach zu erklären ist. Dieser Leistungseinbruch kann minimal sein, wenn der Heap noch sauber ist, aber nachdem das Gerät eine Weile ausgeführt wurde, kann der Heap fragmentiert werden. Die Anrufe werden länger dauern und Sie können nicht einfach berechnen, wie sich die Leistung im Laufe der Zeit verschlechtert. Sie können nicht wirklich eine schlechtere Fallschätzung erstellen. Der Optimierer kann Ihnen auch in diesem Fall keine Hilfe leisten. Um die Sache noch schlimmer zu machen, schlagen die Aufrufe insgesamt fehl, wenn der Heap zu stark fragmentiert wird. Die Lösung besteht darin, Speicherpools zu verwenden (z.glib Scheiben ) anstelle des Haufens. Die Zuweisungsaufrufe werden viel schneller und deterministischer, wenn Sie es richtig machen.

figurassa
quelle
Meine Faustregel lautet: Wenn Sie dynamisch zuordnen müssen, holen Sie sich ein Array, damit Sie es nicht erneut ausführen müssen. Ordnen Sie ihnen Vektoren zu.
EvilTeach
7

Ein dummer kleiner Tipp, der Ihnen jedoch mikroskopisch viel Geschwindigkeit und Code erspart.

Übergeben Sie Funktionsargumente immer in derselben Reihenfolge.

Wenn Sie f_1 (x, y, z) haben, das f_2 aufruft, deklarieren Sie f_2 als f_2 (x, y, z). Deklarieren Sie es nicht als f_2 (x, z, y).

Der Grund dafür ist, dass die C / C ++ - Plattform ABI (AKA Calling Convention) verspricht, Argumente in bestimmten Registern und Stapelpositionen zu übergeben. Wenn sich die Argumente bereits in den richtigen Registern befinden, müssen sie nicht verschoben werden.

Beim Lesen von zerlegtem Code habe ich einige lächerliche Registermischungen gesehen, weil die Leute diese Regel nicht befolgt haben.

Zan Lynx
quelle
2
Weder C noch C ++ geben Garantien für die Übergabe bestimmter Register oder Stapelpositionen ab oder erwähnen sie sogar. Es ist der ABI (z. B. Linux ELF), der die Details der Parameterübergabe bestimmt.
Emmet
5

Zwei Codiertechniken, die ich in der obigen Liste nicht gesehen habe:

Umgehen Sie den Linker, indem Sie Code als eindeutige Quelle schreiben

Während eine separate Kompilierung für die Kompilierungszeit sehr hilfreich ist, ist sie sehr schlecht, wenn Sie von Optimierung sprechen. Grundsätzlich kann der Compiler nicht über die Kompilierungseinheit hinaus optimieren, dh die vom Linker reservierte Domäne.

Wenn Sie Ihr Programm jedoch gut gestalten, können Sie es auch über eine eindeutige gemeinsame Quelle kompilieren. Das heißt, anstatt unit1.c und unit2.c zu kompilieren, verknüpfen Sie dann beide Objekte und kompilieren Sie all.c, die lediglich unit1.c und unit2.c enthalten. So profitieren Sie von allen Compiler-Optimierungen.

Es ist sehr ähnlich wie das Schreiben von Header-Programmen in C ++ (und noch einfacher in C).

Diese Technik ist einfach genug, wenn Sie Ihr Programm schreiben, um es von Anfang an zu aktivieren. Sie müssen sich jedoch auch darüber im Klaren sein, dass es einen Teil der C-Semantik ändert, und Sie können auf einige Probleme wie statische Variablen oder Makrokollisionen stoßen. Für die meisten Programme ist es einfach genug, die auftretenden kleinen Probleme zu überwinden. Beachten Sie auch, dass das Kompilieren als eindeutige Quelle viel langsamer ist und viel Speicherplatz beansprucht (normalerweise kein Problem bei modernen Systemen).

Mit dieser einfachen Technik habe ich zufällig einige Programme erstellt, die ich zehnmal schneller geschrieben habe!

Wie das Schlüsselwort register könnte auch dieser Trick bald veraltet sein. Die Optimierung durch Linker wird von den Compilern unterstützt. Gcc: Optimierung der Linkzeit .

Separate atomare Aufgaben in Schleifen

Dieser ist schwieriger. Es geht um die Interaktion zwischen dem Algorithmusdesign und der Art und Weise, wie der Optimierer die Cache- und Registerzuordnung verwaltet. Sehr oft müssen Programme eine Datenstruktur durchlaufen und für jedes Element einige Aktionen ausführen. Sehr oft können die durchgeführten Aktionen auf zwei logisch unabhängige Aufgaben aufgeteilt werden. In diesem Fall können Sie genau dasselbe Programm mit zwei Schleifen an derselben Grenze schreiben, die genau eine Aufgabe ausführen. In einigen Fällen kann das Schreiben auf diese Weise schneller sein als die eindeutige Schleife (Details sind komplexer, aber eine Erklärung kann sein, dass mit dem einfachen Task-Fall alle Variablen in Prozessorregistern gespeichert werden können und mit dem komplexeren nicht möglich sind und einige Register müssen in den Speicher geschrieben und später zurückgelesen werden, und die Kosten sind höher als bei einer zusätzlichen Flusskontrolle.

Seien Sie vorsichtig mit diesem (Profilleistungen, die diesen Trick verwenden oder nicht), da es wie die Verwendung von Register auch geringere Leistungen als verbesserte liefern kann.

kriss
quelle
2
Ja, inzwischen hat LTO die erste Hälfte dieses Beitrags überflüssig gemacht und wahrscheinlich schlechte Ratschläge gegeben.
underscore_d
@underscore_d: Es gibt noch einige Probleme (hauptsächlich im Zusammenhang mit der Sichtbarkeit exportierter Symbole), aber aus Sicht der Leistung gibt es wahrscheinlich keine Probleme mehr.
kriss
4

Ich habe dies tatsächlich in SQLite gesehen und sie behaupten, dass es zu Leistungssteigerungen von ~ 5% führt: Fügen Sie Ihren gesamten Code in eine Datei ein oder verwenden Sie den Präprozessor, um das Äquivalent dazu zu tun. Auf diese Weise hat der Optimierer Zugriff auf das gesamte Programm und kann mehr interprozedurale Optimierungen vornehmen.

Dsimcha
quelle
5
Das Zusammenfügen von Funktionen, die in enger physischer Nähe in der Quelle verwendet werden, erhöht die Wahrscheinlichkeit, dass sie in Objektdateien nahe beieinander und in Ihrer ausführbaren Datei nahe beieinander liegen. Diese verbesserte Lokalität von Befehlen kann dazu beitragen, Fehlschläge im Anweisungscache während der Ausführung zu vermeiden.
paxos1977
Der AIX-Compiler verfügt über einen Compiler-Schalter, um dieses Verhalten zu fördern -qipa [= <Unteroptionsliste>] | -qnoipa Aktiviert oder passt eine Klasse von Optimierungen an, die als Interprocedural Analysis (IPA) bezeichnet werden.
EvilTeach
4
Am besten ist es, einen Weg zu finden, der dies nicht erfordert. Die Verwendung dieser Tatsache als Entschuldigung für das Schreiben von nicht modularem Code führt insgesamt nur zu Code, der langsam ist und Wartungsprobleme aufweist.
Hogan
3
Ich denke, diese Informationen sind leicht veraltet. Theoretisch bieten die Funktionen zur Optimierung des gesamten Programms, die jetzt in vielen Compilern integriert sind (z. B. "Link-Time Optimization" in gcc), dieselben Vorteile, jedoch mit einem völlig normalen Workflow (plus schnelleren Neukompilierungszeiten als alles in einer Datei) !)
Ponkadoodle
@ Wallacoloo Natürlich ist dies ein veraltetes Datum. FWIW, ich habe heute zum ersten Mal den LTO von GCC verwendet und - bei sonst gleichen Bedingungen -O3- 22% der ursprünglichen Größe meines Programms gesprengt. (Es ist nicht CPU-gebunden, daher habe ich nicht viel über Geschwindigkeit zu sagen.)
underscore_d
4

Die meisten modernen Compiler sollten gute Arbeit leisten, um die Schwanzrekursion zu beschleunigen , da die Funktionsaufrufe optimiert werden können.

Beispiel:

int fac2(int x, int cur) {
  if (x == 1) return cur;
  return fac2(x - 1, cur * x); 
}
int fac(int x) {
  return fac2(x, 1);
}

Natürlich hat dieses Beispiel keine Überprüfung der Grenzen.

Späte Bearbeitung

Ich habe zwar keine direkte Kenntnis des Codes; Es scheint klar zu sein, dass die Anforderungen für die Verwendung von CTEs unter SQL Server speziell so konzipiert wurden, dass sie über die Tail-End-Rekursion optimiert werden können.

Hogan
quelle
1
Die Frage bezieht sich auf C. C entfernt die Schwanzrekursion nicht. Wenn also die Schwanzrekursion oder eine andere Rekursion auftritt, kann der Stapel durchbrennen, wenn die Rekursion zu tief geht.
Kröte
1
Ich habe das Problem der aufrufenden Konvention vermieden, indem ich ein goto verwendet habe. Auf diese Weise entsteht weniger Overhead.
EvilTeach
2
@hogan: das ist neu für mich. Könnten Sie auf einen Compiler verweisen, der dies tut? Und wie können Sie sicher sein, dass es tatsächlich optimiert wird? Wenn es das tun würde, muss man wirklich sicher sein, dass es das tut. Es ist nicht etwas, von dem Sie hoffen, dass es das Compiler-Optimierungsprogramm aufgreift (wie Inlining, das möglicherweise funktioniert oder nicht)
Toad
6
@hogan: Ich stehe korrigiert. Sie haben Recht, dass sowohl Gcc als auch MSVC die Optimierung der Schwanzrekursion durchführen.
Kröte
5
Dieses Beispiel ist keine Schwanzrekursion, da es nicht der letzte rekursive Aufruf ist, sondern die Multiplikation.
Brian Young
4

Mach nicht immer und immer wieder die gleiche Arbeit!

Ein häufiges Antimuster, das ich sehe, geht in diese Richtung:

void Function()
{
   MySingleton::GetInstance()->GetAggregatedObject()->DoSomething();
   MySingleton::GetInstance()->GetAggregatedObject()->DoSomethingElse();
   MySingleton::GetInstance()->GetAggregatedObject()->DoSomethingCool();
   MySingleton::GetInstance()->GetAggregatedObject()->DoSomethingReallyNeat();
   MySingleton::GetInstance()->GetAggregatedObject()->DoSomethingYetAgain();
}

Der Compiler muss tatsächlich ständig alle diese Funktionen aufrufen. Angenommen, Sie als Programmierer wissen, dass sich das aggregierte Objekt im Verlauf dieser Aufrufe nicht ändert, aus Liebe zu allem, was heilig ist ...

void Function()
{
   MySingleton* s = MySingleton::GetInstance();
   AggregatedObject* ao = s->GetAggregatedObject();
   ao->DoSomething();
   ao->DoSomethingElse();
   ao->DoSomethingCool();
   ao->DoSomethingReallyNeat();
   ao->DoSomethingYetAgain();
}

Im Fall des Singleton-Getter sind die Aufrufe möglicherweise nicht zu kostspielig, aber es sind sicherlich Kosten (normalerweise "Überprüfen Sie, ob das Objekt erstellt wurde, falls nicht, erstellen Sie es und geben Sie es zurück) Je komplizierter diese Kette von Gettern wird, desto mehr Zeit wird verschwendet.

Dash-Tom-Bang
quelle
3
  1. Verwenden Sie für alle Variablendeklarationen den möglichst lokalen Bereich.

  2. Verwenden Sie constwann immer möglich

  3. Dont Verwendung registrieren , wenn Sie planen , sowohl zum Profil mit und ohne es

Die ersten beiden, insbesondere die erste, helfen dem Optimierer, den Code zu analysieren. Dies hilft insbesondere dabei, gute Entscheidungen darüber zu treffen, welche Variablen in Registern gespeichert werden sollen.

Die blinde Verwendung des Schlüsselworts register hilft wahrscheinlich genauso wie Ihrer Optimierung. Es ist einfach zu schwer zu wissen, worauf es ankommt, bis Sie sich die Ausgabe oder das Profil der Assembly ansehen.

Es gibt andere Dinge, die wichtig sind, um eine gute Leistung des Codes zu erzielen. Entwerfen Sie beispielsweise Ihre Datenstrukturen, um die Cache-Kohärenz zu maximieren. Aber die Frage war nach dem Optimierer.

John Knoeller
quelle
3

Ich wurde an etwas erinnert, auf das ich einmal gestoßen bin, bei dem das Symptom einfach war, dass uns der Speicher ausgeht, aber das Ergebnis war eine erheblich gesteigerte Leistung (sowie eine enorme Reduzierung des Speicherbedarfs).

Das Problem in diesem Fall war, dass die von uns verwendete Software tonnenweise kleine Zuweisungen vorgenommen hat. B. vier Bytes hier, sechs Bytes dort usw. zuweisen. Viele kleine Objekte laufen ebenfalls im Bereich von 8 bis 12 Bytes. Das Problem war nicht so sehr, dass das Programm viele kleine Dinge benötigte, sondern dass es viele kleine Dinge einzeln zuordnete, wodurch jede Zuordnung auf (auf dieser speziellen Plattform) 32 Bytes aufgebläht wurde.

Ein Teil der Lösung bestand darin, einen kleinen Objektpool im Alexandrescu-Stil zusammenzustellen, ihn jedoch zu erweitern, damit ich Arrays kleiner Objekte sowie einzelne Elemente zuordnen konnte. Dies hat auch bei der Leistung immens geholfen, da mehr Elemente gleichzeitig in den Cache passen.

Der andere Teil der Lösung bestand darin, die weit verbreitete Verwendung von manuell verwalteten char * -Mitgliedern durch eine SSO-Zeichenfolge (Small-String Optimization) zu ersetzen. Bei einer Mindestzuweisung von 32 Byte habe ich eine Zeichenfolgenklasse mit einem eingebetteten 28-Zeichen-Puffer hinter einem Zeichen * erstellt, sodass 95% unserer Zeichenfolgen keine zusätzliche Zuordnung vornehmen mussten (und dann fast jedes Erscheinungsbild von manuell ersetzt habe char * in dieser Bibliothek mit dieser neuen Klasse, das hat Spaß gemacht oder nicht). Dies half auch einer Tonne bei der Speicherfragmentierung, was dann die Referenzlokalität für andere Objekte erhöhte, auf die verwiesen wurde, und in ähnlicher Weise gab es Leistungssteigerungen.

Dash-Tom-Bang
quelle
3

Eine nette Technik, die ich aus dem Kommentar von @MSalters zu dieser Antwort gelernt habe , ermöglicht es Compilern, eine Kopierelision durchzuführen, selbst wenn verschiedene Objekte unter bestimmten Bedingungen zurückgegeben werden:

// before
BigObject a, b;
if(condition)
  return a;
else
  return b;

// after
BigObject a, b;
if(condition)
  swap(a,b);
return a;
Xeo
quelle
2

Wenn Sie kleine Funktionen haben, die Sie wiederholt aufrufen, habe ich in der Vergangenheit große Vorteile erzielt, indem ich sie als "statische Inline" in Header eingefügt habe. Funktionsaufrufe auf dem ix86 sind überraschend teuer.

Die nicht rekursive Neuimplementierung rekursiver Funktionen mithilfe eines expliziten Stapels kann ebenfalls viel bewirken, aber dann befinden Sie sich wirklich im Bereich von Entwicklungszeit und Gewinn.

Remy
quelle
Das Konvertieren von Rekursion in einen Stapel ist eine angenommene Optimierung auf ompf.org für Benutzer, die Raytracer entwickeln und andere Rendering-Algorithmen schreiben.
Tom
... Ich sollte hinzufügen, dass der größte Aufwand in meinem persönlichen Raytracer-Projekt die vtable-basierte Rekursion durch eine Bounding-Volume-Hierarchie unter Verwendung des Composite-Musters ist. Es ist wirklich nur ein Bündel verschachtelter Felder, die als Baum strukturiert sind, aber die Verwendung des Musters führt zu Datenaufblähungen (virtuellen Tabellenzeigern) und verringert die Befehlskohärenz (was eine kleine / enge Schleife sein könnte, ist jetzt eine Kette von Funktionsaufrufen)
Tom
2

Hier ist mein zweiter Ratschlag zur Optimierung. Wie bei meinem ersten Ratschlag ist dies ein allgemeiner Zweck, nicht sprach- oder prozessorspezifisch.

Lesen Sie das Compiler-Handbuch sorgfältig durch und verstehen Sie, was es Ihnen sagt. Verwenden Sie den Compiler bis zum Äußersten.

Ich stimme einem oder zwei der anderen Befragten zu, die festgestellt haben, dass die Auswahl des richtigen Algorithmus entscheidend für die Leistungssteigerung eines Programms ist. Darüber hinaus ist die Rendite (gemessen an der Verbesserung der Codeausführung) für die Zeit, die Sie in die Verwendung des Compilers investieren, weitaus höher als die Rendite für die Optimierung des Codes.

Ja, Compiler-Autoren stammen nicht aus einer Rasse von Codierungsriesen, und Compiler enthalten Fehler, und was laut Handbuch und Compilertheorie die Dinge schneller machen sollte, macht die Dinge manchmal langsamer. Aus diesem Grund müssen Sie Schritt für Schritt die Leistung vor und nach der Optimierung messen.

Und ja, letztendlich könnten Sie mit einer kombinatorischen Explosion von Compiler-Flags konfrontiert sein, sodass Sie ein oder zwei Skripte benötigen, um make mit verschiedenen Compiler-Flags auszuführen, die Jobs im großen Cluster in die Warteschlange zu stellen und die Laufzeitstatistiken zu erfassen. Wenn es nur Sie und Visual Studio auf einem PC sind, wird Ihnen das Interesse ausgehen, lange bevor Sie genug Kombinationen von genug Compiler-Flags ausprobiert haben.

Grüße

Kennzeichen

Wenn ich zum ersten Mal einen Code abhole, kann ich in der Regel innerhalb von a einen Faktor von 1,4 bis 2,0-mal mehr Leistung erzielen (dh die neue Version des Codes läuft in 1 / 1,4 oder 1/2 der Zeit der alten Version) Tag oder zwei durch Fummeln mit Compiler-Flags. Zugegeben, das könnte eher ein Kommentar zum Mangel an Compiler-Know-how unter den Wissenschaftlern sein, die einen Großteil des Codes, an dem ich arbeite, erstellen, als ein Symptom für meine Exzellenz. Nachdem die Compiler-Flags auf max gesetzt wurden (und es ist selten nur -O3), kann es Monate harter Arbeit dauern, bis ein weiterer Faktor von 1,05 oder 1,1 erreicht ist

Hochleistungsmarke
quelle
2

Als DEC seine Alpha-Prozessoren herausbrachte, gab es eine Empfehlung, die Anzahl der Argumente für eine Funktion unter 7 zu halten, da der Compiler immer versuchen würde, automatisch bis zu 6 Argumente in Registern abzulegen.

EvilTeach
quelle
Das x86-64-Bit erlaubt auch viele Register-übergebene Parameter, was sich dramatisch auf den Overhead von Funktionsaufrufen auswirken kann.
Tom
1

Konzentrieren Sie sich für die Leistung zunächst auf das Schreiben von wartbarem Code - komponentenbasiert, lose gekoppelt usw. Wenn Sie also ein Teil isolieren müssen, um es neu zu schreiben, zu optimieren oder einfach nur zu profilieren, können Sie dies ohne großen Aufwand tun.

Das Optimierungsprogramm verbessert die Leistung Ihres Programms nur geringfügig.

Ariel
quelle
3
Das funktioniert nur, wenn die Kopplungs- "Schnittstellen" selbst optimiert werden können. Eine Schnittstelle kann von Natur aus "langsam" sein, z. B. indem er redundante Suchvorgänge oder Berechnungen erzwingt oder einen schlechten Cache-Zugriff erzwingt.
Tom
1

Sie erhalten hier gute Antworten, aber sie gehen davon aus, dass Ihr Programm zunächst nahezu optimal ist, und Sie sagen

Angenommen, das Programm wurde korrekt geschrieben, mit vollständiger Optimierung kompiliert, getestet und in Produktion genommen.

Nach meiner Erfahrung kann ein Programm korrekt geschrieben sein, aber das bedeutet nicht, dass es nahezu optimal ist. Es erfordert zusätzliche Arbeit, um an diesen Punkt zu gelangen.

Wenn ich ein Beispiel geben kann, zeigt diese Antwort , wie ein vollkommen vernünftig aussehendes Programm durch Makrooptimierung über 40-mal schneller gemacht wurde . Große Beschleunigungen können nicht in jedem Fall durchgeführt werden Programm durchgeführt werden, wie es zuerst geschrieben wurde, aber in vielen (außer in sehr kleinen Programmen) kann dies meiner Erfahrung nach der .

Danach kann sich die Mikrooptimierung (der Hotspots) gut auszahlen.

Mike Dunlavey
quelle
1

Ich benutze Intel Compiler. unter Windows und Linux.

Wenn mehr oder weniger fertig, profiliere ich den Code. Halten Sie sich dann an die Hotspots und versuchen Sie, den Code zu ändern, damit der Compiler einen besseren Job macht.

Wenn ein Code rechnerisch ist und viele Schleifen enthält - der Vektorisierungsbericht im Intel-Compiler ist sehr hilfreich - suchen Sie in der Hilfe nach 'vec-report'.

Also die Hauptidee - polieren Sie den leistungskritischen Code. Was den Rest betrifft - Priorität, um korrekt und wartbar zu sein - kurze Funktionen, klarer Code, der 1 Jahr später verstanden werden konnte.

jf.
quelle
Sie nähern sich der Beantwortung der Frage ..... Welche Art von Dingen tun Sie mit dem Code, um es dem Compiler zu ermöglichen, diese Art von Optimierungen vorzunehmen?
EvilTeach
1
Wenn Sie versuchen, mehr im C-Stil zu schreiben (im Vergleich zu C ++), z. B. virtuelle Funktionen ohne absolute Notwendigkeit zu vermeiden, insbesondere wenn sie häufig aufgerufen werden, vermeiden Sie AddRefs .. und alle coolen Dinge (wieder, es sei denn, dies wird wirklich benötigt). Schreiben Sie Code einfach zum Inlining - weniger Parameter, weniger "if" -s. Verwenden Sie keine globalen Variablen, es sei denn, dies ist unbedingt erforderlich. In der Datenstruktur - setzen Sie breitere Felder an die erste Stelle (double, int64 steht vor int) - richten Sie die Struktur des Compilers auf die natürliche Größe des ersten Felds aus - richten Sie sie gut für perf aus.
jf.
1
Datenlayout und Zugriff sind für die Leistung von entscheidender Bedeutung. Nach der Profilerstellung zerlege ich manchmal eine Struktur in mehrere Strukturen, je nach der Lokalität der Zugriffe. Ein allgemeinerer Trick - verwenden Sie int oder size-t vs. char - selbst wenn die Datenwerte klein sind - vermeiden Sie verschiedene Perf. Strafen speichern, um Blockierung zu laden, Probleme mit Teilregistern blockiert. Dies gilt natürlich nicht, wenn große Arrays solcher Daten benötigt werden.
jf.
Noch eine - vermeiden Sie Systemaufrufe, es sei denn, es besteht ein wirklicher Bedarf :) - sie sind SEHR teuer
jf.
2
@jf: Ich habe +1 für Ihre Antwort vergeben, aber können Sie die Antwort bitte von den Kommentaren zum Antworttext verschieben? Es wird leichter zu lesen sein.
kriss
1

Eine Optimierung, die ich in C ++ verwendet habe, ist das Erstellen eines Konstruktors, der nichts tut. Man muss manuell init () aufrufen, um das Objekt in einen Arbeitszustand zu versetzen.

Dies hat Vorteile für den Fall, dass ich einen großen Vektor dieser Klassen benötige.

Ich rufe Reserve () auf, um den Platz für den Vektor zuzuweisen, aber der Konstruktor berührt die Speicherseite, auf der sich das Objekt befindet, nicht. Ich habe also etwas Adressraum ausgegeben, aber nicht viel physischen Speicher verbraucht. Ich vermeide die Seitenfehler, die mit den damit verbundenen Baukosten verbunden sind.

Während ich Objekte generiere, um den Vektor zu füllen, setze ich sie mit init (). Dies begrenzt meine gesamten Seitenfehler und vermeidet die Notwendigkeit, die Größe des Vektors beim Füllen zu ändern ().

EvilTeach
quelle
6
Ich glaube, eine typische Implementierung von std :: vector erstellt nicht mehr Objekte, wenn Sie mehr Kapazität reservieren (). Es werden nur Seiten zugewiesen. Die Konstruktoren werden später unter Verwendung der Platzierung new aufgerufen, wenn Sie dem Vektor tatsächlich Objekte hinzufügen - was (vermutlich) unmittelbar vor dem Aufruf von init () liegt, sodass Sie die separate Funktion init () nicht wirklich benötigen. Denken Sie auch daran, dass der kompilierte Konstruktor, selbst wenn Ihr Konstruktor im Quellcode "leer" ist, möglicherweise Code zum Initialisieren von Dingen wie virtuellen Tabellen und RTTI enthält, sodass die Seiten ohnehin zur Konstruktionszeit berührt werden.
Wyzard
1
Ja. In unserem Fall verwenden wir push_back zum Auffüllen des Vektors. Die Objekte haben keine virtuellen Funktionen, daher ist dies kein Problem. Als wir es das erste Mal mit dem Konstruktor versuchten, waren wir erstaunt über das Volumen der Seitenfehler. Mir wurde klar, was passiert war, und wir rissen dem Konstruktor den Mut, und das Problem mit den Seitenfehlern verschwand.
EvilTeach
Das überrascht mich ziemlich. Welche C ++ - und STL-Implementierungen haben Sie verwendet?
David Thornley
3
Ich stimme den anderen zu, das klingt nach einer schlechten Implementierung von std :: vector. Selbst wenn Ihre Objekte vtables hätten, würden sie erst mit Ihrem push_back erstellt. Sie sollten dies testen können, indem Sie den Standardkonstruktor als privat deklarieren, da nur der Kopierkonstruktor für push_back benötigt wird.
Tom
1
@ David - Die Implementierung erfolgte unter AIX.
EvilTeach
1

Eine Sache, die ich getan habe, ist zu versuchen, teure Aktionen an Orten zu halten, an denen der Benutzer erwarten könnte, dass sich das Programm etwas verzögert. Die Gesamtleistung hängt mit der Reaktionsfähigkeit zusammen, ist jedoch nicht ganz gleich, und für viele Dinge ist die Reaktionsfähigkeit der wichtigere Teil der Leistung.

Als ich das letzte Mal wirklich Verbesserungen an der Gesamtleistung vornehmen musste, hielt ich Ausschau nach suboptimalen Algorithmen und suchte nach Stellen, an denen wahrscheinlich Cache-Probleme auftreten. Ich habe die Leistung zuerst und nach jeder Änderung profiliert und gemessen. Dann brach die Firma zusammen, aber es war trotzdem eine interessante und lehrreiche Arbeit.

David Thornley
quelle
0

Ich habe lange vermutet, aber nie bewiesen, dass das Deklarieren von Arrays, so dass sie eine Potenz von 2 als Anzahl der Elemente enthalten, es dem Optimierer ermöglicht, eine Stärke zu reduzieren, indem beim Multiplizieren ein Multiplizieren durch eine Verschiebung um eine Anzahl von Bits ersetzt wird einzelne Elemente.

EvilTeach
quelle
6
Das stimmte früher, heute ist es nicht mehr so. Genau das Gegenteil ist der Fall. Wenn Sie Ihre Arrays mit Zweierpotenzen deklarieren, werden Sie höchstwahrscheinlich auf die Situation stoßen, dass Sie an zwei Zeigern arbeiten, die im Speicher zwei Potenzen voneinander entfernt sind. Das Problem ist, dass die CPU-Caches einfach so organisiert sind und möglicherweise zwei Arrays um eine Cache-Zeile kämpfen. Auf diese Weise erhalten Sie eine schreckliche Leistung. Wenn einer der Zeiger ein paar Bytes voraus ist (z. B. keine Zweierpotenz), wird diese Situation verhindert.
Nils Pipenbrinck
+1 Nils, und ein spezifisches Vorkommen davon ist "64k-Aliasing" auf Intel-Hardware.
Tom
Dies ist übrigens leicht zu widerlegen, wenn man sich die Demontage ansieht. Ich war vor Jahren erstaunt zu sehen, wie gcc alle möglichen konstanten Multiplikationen mit Verschiebungen und Additionen optimieren würde. ZB val * 7verwandelte sich in das, was sonst aussehen würde (val << 3) - val.
Dash-Tom-Bang
0

Fügen Sie kleine und / oder häufig aufgerufene Funktionen oben in die Quelldatei ein. Dies erleichtert dem Compiler das Auffinden von Inlining-Möglichkeiten.

Mark Ransom
quelle
"Ja wirklich?" Können Sie eine Begründung und Beispiele dafür anführen? Das heißt nicht, dass es nicht wahr ist, aber es klingt nicht intuitiv, dass der Ort eine Rolle spielen würde.
underscore_d
@underscore_d es kann nichts inline sein, bis die Funktionsdefinition bekannt ist. Während moderne Compiler möglicherweise mehrere Durchgänge ausführen, damit die Definition zum Zeitpunkt der Codegenerierung bekannt ist, gehe ich nicht davon aus.
Mark Ransom
Ich hatte angenommen, dass Compiler eher abstrakte Aufrufgraphen als die Reihenfolge der physischen Funktionen verwenden, was bedeutet, dass dies keine Rolle spielt. Klar, ich nehme an, es tut nicht weh, besonders vorsichtig zu sein - besonders wenn es, abgesehen von der Leistung, IMO logischer erscheint, Funktionen zu definieren, die vor denen aufgerufen werden, die sie aufrufen. Ich müsste die Leistung testen, wäre aber überrascht, wenn es darauf ankommt, aber bis dahin bin ich offen für Überraschungen!
underscore_d