Ich entwickle einen verteilten Algorithmus. Um die Effizienz zu verbessern, hängt er sowohl von der Anzahl der Festplatten (eine pro Maschine) als auch von einer effizienten Lastausgleichsstrategie ab. Mit mehr Festplatten können wir den Zeitaufwand für E / A reduzieren. Mit einer effizienten Lastausgleichsrichtlinie können wir Aufgaben ohne großen Aufwand für die Datenreplikation verteilen.
Es gibt viele Studien zur Literatur, die sich mit demselben Problem befassen, und jede von ihnen führt verschiedene Experimente durch, um ihren Vorschlag zu bewerten. Einige Experimente sind spezifisch für die vorgestellte Strategie, andere, wie schwache Skalierung (Skalierbarkeit) und starke Skalierung (Beschleunigung), sind allen Arbeiten gemeinsam.
Das Problem ist, dass die Experimente normalerweise über völlig unterschiedliche Infrastrukturen (Festplatten, Prozessoren, # Maschinen, Netzwerk) ausgeführt werden. Je nachdem, was ausgewertet wird, kann dies zu falschen / unfairen Vergleichen führen. Beispielsweise kann es vorkommen, dass meine Anwendung auf 10 Computern mit Infiniband-Verbindung zu 100% schneller wird, während ich bei einer Ethernet-Verbindung dieselben oder sogar schlechtere Ergebnisse erzielen kann.
Wie kann man also verschiedene Experimente ehrlich vergleichen, um auf Effizienzgewinne hinzuweisen?