Was ist der Unterschied zwischen Untergrenze und Festgrenze?

99

Was ist Theta (eng gebunden) unter Bezugnahme auf diese Antwort ?

Omega ist die untere Grenze, ganz verstanden, die minimale Zeit, die ein Algorithmus benötigen kann. Und wir wissen, dass Big-O für die Obergrenze steht, dh die maximale Zeit, die ein Algorithmus benötigen kann. Aber ich habe keine Ahnung von der Theta.

Adeel Ansari
quelle

Antworten:

154

Big O ist die Obergrenze, während Omega die Untergrenze ist. Theta benötigt sowohl Big O als auch Omega, daher wird es als enge Grenze bezeichnet (es muss sowohl die obere als auch die untere Grenze sein).

Zum Beispiel Omega(n log n)dauert ein Algorithmus mindestens einige n log nZeit, hat aber keine Obergrenze. Eine Algorithmusaufnahme Theta(n log n)ist weitaus bevorzugt, da sie mindestens n log n (Omega n log n) und nicht mehr als n log n (Big n log n) benötigt.

Chris Bunch
quelle
7
Oh .. Jetzt erscheint mir der Begriff "eng gebunden" ziemlich selbsterklärend. Danke Chris. Dumm von mir, vielleicht hatte ich eine komplexe Idee erwartet. :)
Adeel Ansari
6
Ja, es wird eine Menge ausgefallener Notation herumgeworfen, aber es ist nicht zu komplex, wenn Sie es einmal unter Ihren Gürtel bekommen.
Chris Bunch
4
Dieses frei verfügbare Dokument von Virginia Tech erklärt anhand von Beispielen die Leistungsunterschiede zwischen Algorithmen unterschiedlicher Komplexität und erklärt kurz die asymptotische Analyse: people.cs.vt.edu/shaffer/Book/C++3e20120102.pdf
Alan
Was meinst du mit "Ein Algorithmus, der Theta (n log n) nimmt, ist weit bevorzugt, da er mindestens n log n (Omega n log n) und nicht mehr als n log n (Big O n log n) benötigt.", As in, ist es die genaue Komplexität eines Algorithmus, wie Sie geschrieben haben, sagte mindestens Omega (nlogn) und bei max BigO (nlogn)?
Nikhil Verma
1
In einfachen Worten können wir: Obergrenze (Big (O)) als den schlimmsten Fall bezeichnen? eng gebunden wie der Durchschnittsfall? Untergrenze (Omega) als bester Fall?
Revanth
113

Die Θ-Notation (Theta-Notation) wird als eng gebunden bezeichnet, da sie genauer ist als die O-Notation und die Ω-Notation (Omega-Notation).

Wenn ich faul wäre, könnte ich sagen, dass die binäre Suche in einem sortierten Array O (n 2 ), O (n 3 ) und O (2 n ) ist, und ich wäre in jedem Fall technisch korrekt. Das liegt daran, dass die O-Notation nur eine Obergrenze angibt und die binäre Suche auf der oberen Seite von all diesen Funktionen begrenzt wird, nur nicht sehr genau. Diese faulen Schätzungen wären nutzlos .

Die Θ-Notation löst dieses Problem, indem sie die O-Notation und die Ω-Notation kombiniert . Wenn ich sage, dass die binäre Suche Θ (log n) ist, erhalten Sie genauere Informationen. Es zeigt Ihnen, dass der Algorithmus auf beiden Seiten durch die angegebene Funktion begrenzt ist, sodass er niemals wesentlich schneller oder langsamer als angegeben sein wird.

Bill die Eidechse
quelle
11
If I were lazy, I could say that binary search on a sorted array is O(n2), O(n3), and O(2n), and I would be technically correct in every case- Es scheint, dass die meisten Leute in der Computerwelt nur faul sind, da alle meistens nur über die Komplexität von Big O sprechen.
RBT
If I were lazy, I could say that binary search on a sorted array is O(n2), O(n3), and O(2n), and I would be technically correct in every caseFür den Fall, dass jemand damit verwechselt wird: Für diese Art von Funktionen wird eine nicht asymptotisch enge Small-O-Notation verwendet. Beispiel: - Die Grenze 2n ^ 2 = O (n ^ 2) ist asymptotisch eng, die Grenze 2n = O (n ^ 2) jedoch nicht. Lesen Sie mehr: stackoverflow.com/questions/1364444/…
Dragos Strugar
18

Wenn Sie etwas haben, das O (f (n)) ist , bedeutet dies, dass es k , g (n) gibt, so dass f (n)kg (n) ist .

Wenn Sie etwas haben, das Ω (f (n)) ist , bedeutet dies, dass es k , g (n) gibt, so dass f (n)kg (n) ist .

Und wenn Sie etwas mit O (f (n)) und Ω (f (n)) haben , dann ist es Θ (f (n) .

Der Wikipedia-Artikel ist anständig, wenn auch etwas dicht.

Charlie Martin
quelle
Lesen Sie jetzt die Familie der Bachmann-Landau-Notationen. Danke Charlie, ich war schon einmal dort, bin aber zurückgekehrt, ohne auf seine Länge zu kommen.
Adeel Ansari
Hey, es ist gut, sich von Zeit zu Zeit über Doktorarbeiten zu informieren.
Charlie Martin
Beachten Sie, dass die Big-O-Notation von Landau nicht auf die algorithmische Komplexität beschränkt ist.
Charlie Martin
Das sieht falsch aus. In der ersten Zeile sollte "Wenn Sie etwas haben, das O (g (n)) ist" lauten, das heißt, ganstatt f, und der Rest kann so belassen werden, wie er ist. Gleiches gilt für die zweite Zeile: Es sollte "Wenn Sie etwas haben, das Ω (g (n)) ist" sein. Können Sie das bitte noch einmal überprüfen?
Fabio sagt Reinstate Monica
Das ganze Thema ist so durcheinander, dass jemand mit diesem Credit auch etwas falsch machen könnte: D Scherz beiseite, jemand muss diese Antwort korrigieren. Das verwirrt die Leute (es hat mich sehr beschäftigt).
Rad
5

Asymptotische Obergrenze bedeutet, dass ein bestimmter Algorithmus abhängig von der Anzahl der Eingaben während der maximalen Zeit ausgeführt wird.

Nehmen wir als Beispiel einen Sortieralgorithmus. Wenn alle Elemente eines Arrays in absteigender Reihenfolge vorliegen, dauert das Sortieren eine Laufzeit von O(n)und zeigt die Komplexität der Obergrenze. Wenn das Array bereits sortiert ist, lautet der Wert O(1).

Im Allgemeinen O-notationwird für die Komplexität der oberen Grenze verwendet.


Asymptotisch eng gebunden (c 1 g (n) ≤ f (n) ≤ c 2 g (n)) zeigt die durchschnittliche gebundene Komplexität für eine Funktion mit einem Wert zwischen gebundenen Grenzen (obere Grenze und untere Grenze), wobei c 1 und c 2 sind Konstanten.

sameenu
quelle
1
Wenn das Array sortiert ist, ist die Grenze immer noch O (n)
Arun Aravind
2
@ArunAravind Kannst du erklären warum?
nbro
3

Die Sätze minimale Zeit und maximale Zeit sind hier etwas irreführend. Wenn wir über große O-Notationen sprechen, ist es nicht die tatsächliche Zeit, an der wir interessiert sind, sondern wie sich die Zeit erhöht, wenn unsere Eingabegröße größer wird. Und es ist normalerweise die durchschnittliche oder schlechteste Zeit, über die wir sprechen, nicht der beste Fall , was normalerweise für die Lösung unserer Probleme nicht sinnvoll ist.

Verwenden Sie die Arraysuche in der akzeptierten Antwort auf die andere Frage als Beispiel. Die Zeit, die benötigt wird, um eine bestimmte Zahl in der Liste der Größe n zu finden, beträgt im Durchschnitt n / 2 * some_constant. Wenn Sie es als Funktion behandeln f(n) = n/2*some_constant, steigt es nicht schneller an als g(n) = nim Sinne von Charlie. Außerdem steigt es nicht langsamer als g(n)beide. Daher g(n)ist tatsächlich sowohl eine Obergrenze als auch eine Untergrenze von f(n)in der Big-O-Notation, so dass die Komplexität der linearen Suche genau n ist , was bedeutet, dass es Theta (n) ist.

In dieser Hinsicht ist die Erklärung in der akzeptierten Antwort auf die andere Frage nicht ganz richtig, was besagt, dass O (n) die Obergrenze ist, da der Algorithmus für einige Eingaben in konstanter Zeit ausgeführt werden kann (dies ist der beste Fall, den ich oben erwähnt habe). Das ist nicht wirklich das, was wir über die Laufzeit wissen wollen.

PolyThinker
quelle
Können wir also sagen, dass Ω der beste Fall und O der schlechteste ist? . .. und sollten wir die Begriffe als bester Fall bzw. als schlechtester Fall ersetzen?
Adeel Ansari
Bester Fall ist O (1) für ein Problem?
Zach Langley
1
@Adeel, nein, Theta und O können sich beide entweder auf den Durchschnittsfall oder den schlimmsten Fall beziehen. @ Zach, na ja, nicht genau. Vielen Dank für den Hinweis.
PolyThinker
0

Wenn ich faul wäre, könnte ich sagen, dass die binäre Suche in einem sortierten Array O (n2), O (n3) und O (2n) ist, und ich wäre in jedem Fall technisch korrekt.

Wir können die O-Notation ("little-oh") verwenden, um eine Obergrenze zu bezeichnen, die nicht asymptotisch eng ist. Sowohl Big-Oh als auch Little-Oh sind ähnlich. Aber Big-Oh wird wahrscheinlich verwendet, um eine asymptotisch enge Obergrenze zu definieren.

Finn fehlt
quelle
0

Genau die Untergrenze oder $ \ omega $ bfon f (n) bedeutet die Menge von Funktionen, die asymptotisch kleiner oder gleich f (n) sind, dh U g (n) ≤ cf (n) $ \ für alle $ `un≥ n 'Für einige c, n' $ \ in $ $ \ Bbb {N} $

Und die Obergrenze oder $ \ mathit {O} $ für f (n) bedeutet die Menge von Funktionen, die assymptotisch größer oder gleich f (n) sind, was mathematisch sagt,

$ g (n) \ ge cf (n) \ für alle n \ ge n '$, für einige c, n' $ \ in $ $ \ Bbb {N} $.

Jetzt ist das $ \ Theta $ der Schnittpunkt der oben geschriebenen zwei

$\theta $

Wenn ein Algorithmus wie "genau $ \ Omega \ left (f (n) \ right $" ist, ist es besser zu sagen, dass es $ \ Theta \ left (f (n) \ right) $ ist.

Oder wir können auch sagen, dass es uns die tatsächliche Geschwindigkeit $ \omega $gibt, wo es uns die niedrigste Grenze gibt.

PI Gogole
quelle
-2

Der grundlegende Unterschied zwischen

Blockquote

asymptotisch obergrenze und asymptotisch eng Asym.upperbound bedeutet einen gegebenen Algorithmus, der abhängig von der Anzahl der Eingaben mit maximaler Zeit ausgeführt werden kann, z. B. beim Sortieren von Algo, wenn alle Array (n) -Elemente in absteigender Reihenfolge sind, und dann zum Aufsteigen dauert eine Laufzeit von O (n), die die Komplexität der Obergrenze zeigt, aber wenn sie bereits sortiert sind, dauert es Ohm (1). Daher haben wir im Allgemeinen die "O" -Notation für die Komplexität der Obergrenze verwendet.

Asym. eng gebundene Grenze zeigt die für zB (c1g (n) <= f (n) <= c2g (n)) zeigt die eng gebundene Grenze, so dass die Funktion den Wert zwischen zwei Grenzen hat (obere Grenze und untere Grenze), was die ergibt durchschnittlicher Fall.

BOBBY Z.
quelle
2
Sie sollten alte Fragen nicht beantworten, wenn Ihre Antwort bereits akzeptierten Antworten nichts hinzufügt.
Alestanis