Gibt es interessante Fälle von Algorithmen, die mit nachgewiesenen Grenzen veröffentlicht wurden und in denen später streng bessere Grenzen veröffentlicht wurden? Keine besseren Algorithmen mit besseren Grenzen - das ist offensichtlich passiert! Eine bessere Analyse führt jedoch zu einer besseren Bindung an einen vorhandenen Algorithmus
Ich dachte, die Matrixmultiplikation sei ein Beispiel dafür, aber ich habe mich (vielleicht falsch!) Dagegen ausgesprochen, nachdem ich versucht hatte, Kupferschmied-Winograd und seine Freunde besser zu verstehen.
ho.history-overview
analysis-of-algorithms
Rob Simmons
quelle
quelle
Antworten:
Der Union-Find-Algorithmus, den Tarjan 1 zeigte, hatte die Komplexitätn α ( n ) , wobei α ( n ) die inverse Ackermann-Funktion ist, wurde zuvor von mehreren Personen analysiert. Laut Wikipedia wurde es von Galler und Fischer 2 erfunden , aber das scheint falsch zu sein, da sie nicht alle Komponenten des Algorithmus hatten, die nötig waren, um es so schnell laufen zu lassen.
Basierend auf kurzen Scans der Arbeiten scheint es, dass der Algorithmus von Hopcroft und Ullman 3 erfunden wurde , die eine (falsche)O ( n ) -Zeitgrenze angegeben haben. Fischer 4 fand dann den Fehler im Beweis und gab eine O ( n logLogn ) -Zeitbegrenzung. Als nächstes gaben Hopcroft und Ullman 5 eine O ( n log∗n ) -Zeitgrenze an, wonach Tarjan 1 die (optimale) O ( n α ( n ) ) -Zeitgrenze fand.
1 RE Tarjan, "Effizienz eines guten, aber nicht linearen Mengenvereinigungsalgorithmus" (1975).
2 BS Galler und MJ Fischer, "Ein verbesserter Äquivalenzalgorithmus" (1964).
3 JE Hopcroft und JD Ullman, "Ein linearer Algorithmus zum Zusammenführen von Listen" (1971).
4 MJ Fischer, "Effizienz von Äquivalenzalgorithmen" (1972).
5 JE Hopcroft und JD Ullman, "Set-merging algorithms" (1973).
quelle
Es war bekannt, dass der Algorithmus von Paturi, Pudlák, Saks und Zane (PPSZ) fürk - S A T eine Laufzeit von O ( 1,364n) für 3-SAT mit einer besseren Grenze von O(1.308n) für Formeln, die garantiert eine eindeutige befriedigende Zuordnung haben. Später gab Hertli eine verbesserte Analyse ab, aus der hervorgeht, dass diese verbesserte Laufzeitbindung auch für den allgemeinen Fall gilt, sodass PPSZ der beste Algorithmus für 3-SAT zu der Zeit bekannt.
quelle
Der Logjam-Angriff erwähnt, dass die Analyse des allgemeinen Zahlenfeldsiebs (angewendet auf die Berechnung diskreter Logarithmen überFp ) für den Abstiegsschritt eng gesteckt war (siehe oben links auf der 3. Seite). Da dies der einzige Schritt ist, der nicht vorausberechnet werden kann (wenn Fp festgelegt ist), war seine Effizienz maßgeblich für ihren Angriff.
quelle
Hinweis: Ein Vortrag von Jason Li (und die entsprechenden Folien) finden Sie auf der TCS + Website .
quelle
quelle
Das3 -Hitting Set Problem hatte ein paar Iterationen der "besseren Analyse" (siehe Fernau's Papers [1] [2] ) Der Algorithmus vor diesem Papier hatte einige willkürliche Auswahlmöglichkeiten (wie "Wähle eine Kante" ...), aber wenn die Auswahlmöglichkeiten sind In gewisser Weise speziell ausgewählt, ermöglicht es eine verfeinerte Analyse, bei der die Verbesserung eintritt. Und ich denke, seine Anhänge in 1Geben Sie eine genauere Analyse (Zählen von Teilproblemen / Teilstrukturen), die zu besseren Wiederholungen und damit zu besseren Laufzeiten führt. Ich denke, es gibt eine Reihe solcher Beispiele in der Literatur zu parametrisierten Komplexitäten, bei denen das Hinzufügen einer weiteren Variablen zur Analyse zu verbesserten Laufzeiten führen kann. Ich bin jedoch seit einigen Jahren nicht mehr in diesem Spiel und kann mir keine spezifischen Beispiele vorstellen der Moment. Es gibt eine Reihe von Artikeln in FPT- und PTAS-Bereichen, die bei der Suche nach "verbesserten Analysen" in den Papiertiteln auftauchen.
Wenn das Angeben von Auswahlen als derselbe Algorithmus gilt (wie die Tiefenrang-Heuristik von Union-Find), dann ist der Edmonds-Karp-Algorithmus eine 'verbesserte Analyse' von Ford-Fulkerson, und ich würde mir vorstellen, dass es viele andere Probleme gibt, bei denen Algorithmen auftreten das hat Laufzeitverbesserungen von neuen Auswahlregeln gesehen.
Dann gibt es eine ganze Reihe von amortisierten Analysen bestehender Algorithmen (ich denke, Union-Find passt unter diese Beschreibung, hier ist eine andere https://link.springer.com/article/10.1007/s00453-004-1145-7 )
quelle