Ich habe von Owens empirischer Wahrscheinlichkeit gehört, habe sie aber bis vor kurzem nicht beachtet, bis ich auf sie in einem Papier von Interesse gestoßen bin ( Mengersen et al. 2012 ).
Um es zu verstehen, habe ich herausgefunden, dass die Wahrscheinlichkeit der beobachteten Daten als , wobei und .
Es ist mir jedoch nicht gelungen, den mentalen Sprung, der diese Darstellung mit der Möglichkeit verbindet, Rückschlüsse auf Beobachtungen zu ziehen, zu vollziehen. Vielleicht bin ich zu tief in der Überlegung verwurzelt, wie wahrscheinlich es ist, dass ein Modell parametrisiert wird?
Unabhängig davon habe ich in Google Scholar nach einem Artikel gesucht, der empirische Wahrscheinlichkeiten verwendet, die mir helfen würden, das Konzept zu verinnerlichen ... ohne Erfolg. Natürlich gibt es Art Owens Buch zu Empirical Likelihood , aber Google Books lässt all die leckeren Dinge aus und ich bin immer noch im langsamen Prozess, eine Fernleihe zu bekommen.
Kann mich in der Zwischenzeit jemand freundlicherweise auf Papiere und Dokumente hinweisen, die die Prämisse der empirischen Wahrscheinlichkeit und ihre Verwendung klar veranschaulichen? Eine anschauliche Beschreibung von EL selbst wäre ebenfalls willkommen!
Antworten:
Ich kann mir keinen besseren Ort als Owens Buch vorstellen, um etwas über die empirische Wahrscheinlichkeit zu lernen.
Ein praktischer Weg, um über nachzudenken ist die Wahrscheinlichkeit für eine multinomiale Verteilung auf den beobachteten Datenpunkten . Die Wahrscheinlichkeit ist also eine Funktion des Wahrscheinlichkeitsvektors , der Parameterraum ist tatsächlich der dimensionale Simplex von Wahrscheinlichkeitsvektoren, und die MLE setzt jeder der Beobachtungen ein Gewicht von auf (vorausgesetzt, dass sie es sind) sind alle verschieden). Die Dimension des Parameterraums nimmt mit der Anzahl der Beobachtungen zu.L=L(p1,…,pn) x1,…,xn (p1,…,pn) n 1/n
Ein zentraler Punkt ist, dass die empirische Wahrscheinlichkeit eine Methode zur Berechnung von Konfidenzintervallen durch Profilerstellung ohne Angabe eines parametrischen Modells liefert. Wenn der interessierende Parameter der Mittelwert , haben wir für jeden Wahrscheinlichkeitsvektor , dass der Mittelwert und wir können das Profil als Wahrscheinlichkeit berechnen Dann können wir Konfidenzintervalle der Form mit berechnen . Hier ist das empirische Mittel undμ p=(p1,…,pn)
Owens Buch behandelt dies im Detail und bietet Erweiterungen für kompliziertere statistische Probleme und andere interessante Parameter.
quelle
In der Ökonometrie gehen viele angewandte Arbeiten von der Annahme aus, dass wobei ein Datenvektor ist, ein bekanntes System von Gleichungen ist und ist ein unbekannter Parameter, . Die Funktion stammt aus einem Wirtschaftsmodell. Das Ziel ist es, zu schätzen .
Der traditionelle Ansatz, in Ökonometrie, für die Schätzung und Inferenz auf verallgemeinerte Momentenmethode verwenden: wobei eine positive definite Gewichtungsmatrix ist und Empirische Wahrscheinlichkeit liefert einen alternativen Schätzer für GMM. Die Idee ist, die Momentbedingung als Einschränkung zu erzwingen, wenn die nichtparametrische Wahrscheinlichkeit maximiert wird. Repariere zuerst ein . Dann lösen Sie vorbehaltlichθ
Es gibt natürlich viele andere Gründe, warum EL in der Ökonometrie Aufmerksamkeit erregt hat, aber ich hoffe, dass dies ein nützlicher Ausgangspunkt ist. Momentgleichheitsmodelle sind in der empirischen Ökonomie weit verbreitet.
quelle
In der Überlebensanalyse ist die Kaplan-Meier-Kurve der bekannteste nichtparametrische Schätzer der Überlebensfunktion , wobei die Zufallsvariable für die Zeit bis zum Ereignis bezeichnet. Grundsätzlich ist eine Verallgemeinerung der empirischen Verteilungsfunktion, die eine Zensur ermöglicht. Es kann heuristisch abgeleitet werden, wie in den meisten praktischen Lehrbüchern angegeben. Sie kann aber auch formal als Maximum- (empirischer) Wahrscheinlichkeitsschätzer hergeleitet werden. Hier sind weitere Details .S(t)=Pr(T>t) T S^
quelle