Als «it.information-theory» getaggte Fragen

Fragen in der Informationstheorie

33
Was ist das Informationsvolumen?

Diese Frage wurde Jeannette Wing nach ihrem PCAST-Vortrag über Informatik gestellt. "Gibt es aus physikalischer Sicht ein maximales Informationsvolumen?" Jenseits von "Was ist Information?" sollte man auch herausfinden, was "volumen" in diesem zusammenhang bedeutet? Vielleicht ist die maximale...

14
Ist Eta-Äquivalenz für Funktionen mit Haskells seq-Operation kompatibel?

Lemma: Unter der Annahme einer Eta-Äquivalenz haben wir das (\x -> ⊥) = ⊥ :: A -> B. Beweis: ⊥ = (\x -> ⊥ x)durch Eta-Äquivalenz und (\x -> ⊥ x) = (\x -> ⊥)durch Reduktion unter dem Lambda. Der Haskell 2010-Bericht, Abschnitt 6.2, spezifiziert die seqFunktion durch zwei Gleichungen:...

14
Der Nutzen von Renyi-Entropien?

Die meisten von uns kennen die Shannon-Entropie einer Zufallsvariablen, , und alle damit zusammenhängenden informationstheoretische Maßnahmen wie relative Entropie, gegenseitige Information und so weiter. Es gibt einige andere Entropiemaßnahmen, die üblicherweise in der theoretischen Informatik und...

12
Auf der Entropie einer Summe

Ich bin für eine Schranke für die Entropie H(X+Y)H(X+Y)H(X+Y) aus der Summe zweier unabhängiger diskreten Zufallsvariablen XXX und YYY . Natürlich ist H(X+Y)≤H(X)+H(Y)      (∗)H(X+Y)≤H(X)+H(Y)      (∗)H(X+Y) \leq H(X) + H(Y) ~~~~~~(*) . Bezogen auf die Summe von nnn unabhängigen...