Statistiken und Big Data

9
Optimierung des Gefälles

Ich versuche, die Gradientenabstiegsoptimierung in ML-Algorithmen (Machine Learning) zu verstehen. Ich verstehe , dass es eine Kostenfunktion-wo das Ziel ist , den Fehler zu minimieren . In einem Szenario, in dem die Gewichte optimiert werden, um den minimalen Fehler zu ergeben, und partielle...

9
Warum gehen Informationen über die Validierungsdaten verloren, wenn ich beim Optimieren von Hyperparametern die Modellleistung anhand von Validierungsdaten bewerte?

In François Chollets Deep Learning with Python heißt es: Infolgedessen kann das Optimieren der Konfiguration des Modells basierend auf seiner Leistung im Validierungssatz schnell zu einer Überanpassung an den Validierungssatz führen, obwohl Ihr Modell niemals direkt darauf trainiert wird. Zentral...

9
Sind unverzerrte effiziente Schätzer stochastisch dominant gegenüber anderen (mittleren) unverzerrten Schätzern?

Allgemeine Beschreibung Maximiert ein effizienter Schätzer (dessen Stichprobenvarianz gleich der Cramér-Rao-Grenze ist) die Wahrscheinlichkeit, nahe am wahren Parameter ?θθ\theta Angenommen, wir vergleichen die Differenz oder die absolute Differenz zwischen der Schätzung und dem wahren ParameterΔ^=...

9
Wahrscheinlichkeit von

Angenommen, und sind unabhängige geometrische Zufallsvariablen mit dem Parameter . Wie ist die Wahrscheinlichkeit, dass ?X1X1X_1X2X2X_2pppX1≥X2X1≥X2X_1 \geq X_2 Ich bin verwirrt über diese Frage, weil uns nichts anderes über und gesagt wird, als dass sie geometrisch sind. Wäre das nicht weil und...

9
Ausfall in der linearen Regression

Ich habe das Originalpapier über Dropout ( https://www.cs.toronto.edu/~hinton/absps/JMLRdropout.pdf ) gelesen und im Abschnitt über lineare Regression heißt es: E.R ∼ B e r n o u l l i ( p )[ ∥ y - ( R ∗ X.) w∥2]]E.R.∼B.ernÖullich(p)[‖y - -(R.∗X.)w‖2]]\mathbb{E}_{R\sim Bernoulli(p)}\left[\| y\ -...