Ich habe vor langer Zeit über dieses Problem nachgedacht, aber keine Ahnung davon.
Der Erzeugungsalgorithmus ist wie folgt. Wir nehmen an, dass es diskrete Knoten gibt, die von bis nummeriert sind . Dann machen wir für jedes in das übergeordnete Element des ten Knotens im Baum zu einem zufälligen Knoten in . Durchlaufen Sie jedes , damit das Ergebnis ein zufälliger Baum mit dem Wurzelknoten . (Vielleicht ist das nicht zufällig genug, aber das spielt keine Rolle.)
Was ist die erwartete Tiefe dieses Baumes?
pr.probability
zhxchen17
quelle
quelle
Antworten:
Ich denke, es gibt ein Konzentrationsergebnis zu , aber ich habe die Details noch nicht ausgefüllt.e logn
Wir können eine obere Schranke für die Wahrscheinlichkeit erhalten , dass der Knoten hat d Vorfahren nicht einschließlich 0 . Für jede mögliche vollständige Kette von d Vorfahren ungleich Null ( a 1 , a 2n d 0 d ist die Wahrscheinlichkeit dieser Kette ( 1( a1, ein2, . . . , eind) . Dies entspricht1( 1ein1)(1a2)⋯(1ad)×1n mal ein Term von(1+11n wo die Bedingungen bestellt werden. Eine Obergrenze für diese Wahrscheinlichkeit ist also1(1+12+13+⋯1n−1)d wobeiHn-1dien-1.Harmonische Nr.1+1 ist1n(d!)Hdn−1 Hn−1 n−1 . Hn-1≤log(n-1)+γ. Für festesdundn→∞beträgtdie Wahrscheinlichkeit, dass sich der Knotennin der Tiefed+1befindet, höchstens1+12+...+1n−1 Hn−1≈log(n−1)+γ d n→∞ n d+1
Durch die Annäherung von Stirling können wir das als schätzen
Für großes , alles, was viel größer als e log n ist , ist die Basis des Exponentials klein, daher ist diese Grenze klein, und wir können die Vereinigungsgrenze verwenden, um zu sagen, dass die Wahrscheinlichkeit, dass es mindestens einen Knoten mit d Vorfahren ungleich Null gibt, gleich ist klein.d elogn d
Sehen
Luc Devroye, Omar Fawzi, Nicolas Fraiman. "Tiefeneigenschaften von zufälligen rekursiven Bäumen mit skaliertem Anhang."
B. Pittel. Beachten Sie die Höhen von zufälligen rekursiven Bäumen und zufälligen Suchbäumen. Random Structures and Algorithms, 5: 337–348, 1994.
Die ersteren Behauptungen, die letzteren zeigten, dass die maximale Tiefe mit hoher Wahrscheinlichkeit ist, und bieten einen weiteren Beweis.(e+o(1))logn
quelle
This question was answered several years back, but, just for fun, here is a simple proof of the upper bound. We give a bound on the expectation, then a tail bound.
Define r.v.di to be the depth of node i∈{0,1,…,n−1} . Define ϕi=∑ij=0edj.
lemma 1. The expected maximum depth,E[maxidi] is at most eHn−1 .
Proof. The maximum depth is at mostlnϕn−1 .
To finish we show E[lnϕn−1]≤eHn−1 .
By induction it follows that
So, by the concavity of the logarithm,
Here is the tail bound:
lemma 2. Fix anyc≥0 . Then Pr[maxidi]≥eHn−1+c is at most exp(−c) .
Proof. By inspection ofϕ , and the Markov bound, the probability in question is at most
As for a lower bound, I think a lower bound of(e−1)Hn−O(1) follows pretty easily by considering maxidi≥lnϕt−lnn . But...[EDIT: spoke too soon]It doesn't seem so easy to show the tight lower bound, of(1−o(1))eHn ...
quelle
I have actually thought about the same question (although in a completely different formulation) a few months ago, as well as some close variants.
I don't have a closed form (/ asymptotic) solution for it, but you might find this view useful (are you only looking for upper bound perhaps?).
The process you describe here is a generalization of the Chinese Restaurant Process, where each "table" is a subtree whose root's parent isv0 .
This also gives us a recursion formula for your question.
Denote byh(n) the expected heights of a such tree process with n nodes.
Denote byPn(B)=Πb∈B(b−1)!n! (the probability of distribution B of the nodes into subtrees).
Then the quantity you're looking for,h(n) , is given by:
If you wish to code this recursion, make sure you use the following so it won't go into infinite loop:
WhereBn is the set of all partitions of n identical balls into any number of non-empty bins, and h(1)=1 .
In practice, when I needed this I just used a simple monte-carlo method for estimatingh(n) , as trying to actually compute h by this method is extremely inefficient.
quelle