Als «entropy» getaggte Fragen

Eine mathematische Größe, mit der die Zufälligkeit einer Zufallsvariablen gemessen werden kann.

36
Maschinelles Lernen: Soll ich für binäre Vorhersagen eine kategoriale Kreuzentropie oder einen binären Kreuzentropieverlust verwenden?

Zunächst wurde mir klar, dass ich, wenn ich binäre Vorhersagen durchführen muss, mindestens zwei Klassen durch Ausführen einer One-Hot-Codierung erstellen muss. Ist das richtig? Gilt die binäre Kreuzentropie jedoch nur für Vorhersagen mit nur einer Klasse? Wenn ich einen kategorialen...

32
Was sagt uns die Entropie?

Ich lese über Entropie und kann mir nur schwer vorstellen, was es im kontinuierlichen Fall bedeutet. Die Wiki-Seite besagt Folgendes: Die Wahrscheinlichkeitsverteilung der Ereignisse bildet zusammen mit der Informationsmenge jedes Ereignisses eine Zufallsvariable, deren Erwartungswert die...

21
Entropie eines Bildes

Was ist die informations- / physikalisch-theoretisch korrekteste Methode, um die Entropie eines Bildes zu berechnen? Die Recheneffizienz ist mir momentan egal - ich möchte, dass sie theoretisch so korrekt wie möglich ist. Beginnen wir mit einem Graustufenbild. Eine intuitive Vorgehensweise ist das...

19
Was ist empirische Entropie?

Bei der Definition gemeinsam typischer Mengen (in "Elemente der Informationstheorie", Kap. 7.6, S. 195) verwenden wir np(xn)=Π n i = 1 p(xi)- 1nLogp ( xn)-1nLog⁡p(xn)-\frac{1}{n} \log{p(x^n)} als empirische Entropie einer Folge mit . Ich bin noch nie auf diese Terminologie gestoßen. Es ist...

19
Verlustfunktion für Autoencoder

Ich experimentiere ein bisschen mit Autoencodern und habe mit Tensorflow ein Modell erstellt, das versucht, den MNIST-Datensatz zu rekonstruieren. Mein Netzwerk ist sehr einfach: X, e1, e2, d1, Y, wobei e1 und e2 Codierschichten sind, d2 und Y Decodierschichten sind (und Y die rekonstruierte...