Sei die Worst-Case-Laufzeit eines Problems bei der Eingabe der Größe n . Machen wir das Problem ein bisschen seltsam, indem wir f ( n ) = n 2 für n = 2 k, aber f ( n ) = n für n = 2 k + 1 festlegen .
Wo liegt also die Untergrenze des Problems? So wie ich es verstanden habe, ist es nur die untere Grenze von . Aber wir wissen , dass f ( n ) = Ω ( n 2 ) ergibt sich, dass Konstante existiert k , n 0 , so dass für alle n > n 0 , f ( n ) > k n 2 , was nicht wahr ist. Es scheint also, dass wir nur f ( n ) = Ω ( n ) sagen können. Aber normalerweise nennen wir das Problem hat eine untere Schranke von , oder?
Unter der Annahme , dass die , was bedeutet , dass es konstant existiert k , n 0 so daß für alle n > n 0 , g ( n ) > k n 2 . Angenommen, ein Problem hat die Laufzeit g ( n ) . Wenn wir dieses Problem für alle Primzahlen n auf ein anderes Problem (mit derselben Eingangsgröße) reduzieren können, können wir sagen, dass die Laufzeit des anderen Problems eine Untergrenze von Ω ( n) hat ?
Antworten:
Die richtige Definition von ist, dass es einige so dass für unendlich viele , . Die unendlich oft verwendete Definition für Untergrenzen behandelt Ihre Probleme und wird von uns in der Praxis verwendet.k > 0 n f ( n ) ≥ k n 2f(n)=Ω(n2) k>0 n f(n)≥kn2
Ich habe 2005 einen Beitrag dazu verfasst.
Einige Lehrbücher haben diese Definition richtig, andere nicht.
quelle
quelle
Ich kenne die am weitesten verbreitete nicht, aber ich glaube, ich kenne die älteste Verwendung (für die Informatik sowieso).
In der Arbeit von Hartmanis & Stearns aus dem Jahr 1965 "Über die Komplexität von Algorithmen" lautet die Folgerung 2.1:
Folgerung 2.2 ist das Gegenteil von dem oben Gesagten und verwendet limit supremum, hat aber immer noch diese Anforderungen. Ich denke, da die Algorithmen mit den Jahren immer komplexer wurden, ist es möglich, dass die Anforderungen gelockert wurden.
quelle
Ich denke, wir sollten zwischen zwei Dingen unterscheiden:
Wenn wir für Funktionen eine Reihenfolge festlegen, folgt daraus die Definition von Untergrenze / Obergrenze . Wenn die Ordnungsbeziehung asymptotische Majorisierung ist (konstante Faktoren ignorieren)
quelle