Ich bin für eine Schranke für die Entropie aus der Summe zweier unabhängiger diskreten Zufallsvariablen und . Natürlich ist
. Bezogen auf die Summe von unabhängigen Bernoulli-Zufallsvariablen ergibt sich jedoch
Mit anderen Worten, die Grenze wächst linear mit wenn sie wiederholt angewendet wird. Jedoch wird auf einem Satz von unterstützten Größe , also seine Entropie höchstens . InTat, durch den zentralen Grenzwertsatz, ich nehmedass da es im Wesentlichen auf einer Menge von Größe √ unterstützt wird .
Kurz gesagt, die Schranke überschreitet in dieser Situation um einiges. Durch Durchsuchen dieses Blogposts erfahre ich, dass alle Arten von Grenzen für H ( X + Y ) möglich sind. Gibt es eine Grenze, die die richtigen Asymptoten (oder zumindest vernünftigere Asymptoten) ergibt, wenn sie wiederholt auf die Summe der Bernoulli-Zufallsvariablen angewendet werden?
it.information-theory
shannon-entropy
Robinson
quelle
quelle
Antworten:
Bei solchen Fragen bekommt man oft die richtige Intuition, wenn man an "flache" Zufallsvariablen denkt. Stellen Sie sich als die gleichmäßige Verteilung über eine Menge A vorX A der Größe und der Y als die gleichmäßige Verteilung über einen Satz B der Größe 2 H ( Y ) .2H(X) Y B 2H(Y)
Also, die Frage Sie fragen , ist (grob gesagt) , was können Sie über die Größe sagen im Vergleich zu | A | und | B | . Im Allgemeinen (z. B. wenn es sich um zufällige Mengen handelte) haben Sie in der Tat | A + B | ∼ | A | ⋅ | B | was H ( X + Y ) ≤ H ( X ) + H ( Y ) entspricht .|A+B| |A| |B| |A+B|∼|A|⋅|B| H(X+Y)∼H(X)+H(Y)
Es gibt einige Sonderfälle, wenn vor allem, wenn A und B Intervalle sind (oder allgemeiner arithmetische Folgen). Es gibt einige Ergebnisse, die besagen, dass (zumindest unter bestimmten Bedingungen und wenn | A + B | fast so klein ist, wie es sein kann) dies der einzige Fall ist. Der Bereich, in dem solche Fragen untersucht werden, ist als "additive Kombinatorik" bekannt, und einige Ergebnisse haben den Geschmack, der in einer Gruppe ( G , + ) auftritt , wenn | A +|A+B|≪|A|⋅|B| A B |A+B| (G,+) dann sind A , B ungefähr Untergruppen von G (wie Sie in Ihrer Frage erwähnt haben, werden in Terence Taos Blog einige solche Ergebnisse erörtert; im Allgemeinen können Ergebnisse mit festgelegter Größe auf die Entropieeinstellung übertragen werden).|A+B|=O(|A|+|B|) A,B G
Der von Ihnen beschriebene Fall entspricht in etwa dem Fall, in dem ein ganzzahliges Intervall ist [ a . . b ] und B eine ganze Zahl Intervall der Form [ 0 .. c ] (in der Tat, wenn nicht versuchen , den Vorteil der Konzentration und für eine shoot zu nehmen ( 1 / 2 ) log n Entropiecodierung gebunden, müsste man c = 1 und a = 0 und b = k für k = 1 , . . .A [a..b] B [0..c] (1/2)logn c=1 a=0 b=k k=1,...,n−1 a∼k−k−−√ b∼k+k−−√ |A+B|≤|A|+c
quelle
I believe this paper by Harremoes proves that if you take a sum ofn Bernoulli random variables Z1,Z2,...,Zn , each with parameter p then then entropy of Z1+Z2+...+Zn is less that the entropy of a Poisson distribution with the mean np . From a quick look at Wikipedia, it seems that for large values of np the entropy of a Poisson is 12logn+O(logn) , which is what you expect.
quelle
Maybe you could use the Equation:
This would look like a term you mentioned in the comments, unfortunately i don't know of results about the cardinality of the negative terms or insightful bounds on them.
quelle