Frage
Die Varianz einer negativen Binomialverteilung (NB) ist immer größer als ihr Mittelwert. Wenn der Mittelwert einer Stichprobe größer als ihre Varianz ist, schlägt der Versuch fehl, die Parameter einer NB mit maximaler Wahrscheinlichkeit oder mit Momentschätzung anzupassen (es gibt keine Lösung mit endlichen Parametern).
Es ist jedoch möglich, dass eine Stichprobe aus einer NB-Verteilung einen Mittelwert hat, der größer als die Varianz ist. Hier ist ein reproduzierbares Beispiel in R.
set.seed(167)
x = rnbinom(100, size=3.2, prob=.8);
mean(x) # 0.82
var(x) # 0.8157576
Es besteht eine Wahrscheinlichkeit ungleich Null, dass der NB eine Stichprobe erstellt, für die keine Parameter geschätzt werden können (nach Maximum-Likelihood- und Moment-Methoden).
- Können für diese Stichprobe angemessene Schätzungen abgegeben werden?
- Was sagt die Schätzungstheorie, wenn nicht für alle Stichproben Schätzer definiert sind?
Über die Antwort
Die Antworten von @MarkRobinson und @Yves haben mir klar gemacht, dass Parametrisierung das Hauptproblem ist. Die Wahrscheinlichkeitsdichte des NB wird normalerweise als geschrieben
P(X=k)=Γ(r+k)
Bei der ersten Parametrisierung ist die maximale Wahrscheinlichkeitsschätzung immer dann wenn die Varianz der Stichprobe kleiner als der Mittelwert ist, so dass über nichts Sinnvolles gesagt werden kann . Im zweiten Fall ist es , sodass wir eine vernünftige Schätzung von . Schließlich zeigt @MarkRobinson, dass wir das Problem der unendlichen Werte lösen können, indem wir anstelle von .
Zusammenfassend lässt sich sagen, dass dieses Schätzungsproblem nicht grundsätzlich falsch ist, außer dass Sie nicht immer für jede Stichprobe eine aussagekräftige Interpretation von und angeben können. Um fair zu sein, sind die Ideen in beiden Antworten vorhanden. Ich habe das von @MarkRobinson als das richtige für die Ergänzungen gewählt, die er gibt.
quelle
Antworten:
Grundsätzlich befindet sich für Ihre Stichprobe die Schätzung des Größenparameters an der Grenze des Parameterraums. Man könnte auch eine Neuparametrisierung in Betracht ziehen wie d = size / (size + 1); Wenn Größe = 0, d = 0, wenn Größe gegen Unendlich geht, nähert sich d 1. Es stellt sich heraus, dass für die von Ihnen angegebenen Parametereinstellungen in etwa 13% der Fälle Unendlich (d nahe 1) auftritt Cox-Reid-Schätzungen der angepassten Profilwahrscheinlichkeit (APL), die eine Alternative zu MLE-Schätzungen für NB darstellen (hier gezeigtes Beispiel) . Die Schätzungen des mittleren Parameters (oder 'prob') scheinen in Ordnung zu sein (siehe Abbildung, blaue Linien sind die wahren Werte, roter Punkt ist die Schätzung für Ihren Samen = 167 Probe). Weitere Details zur APL-Theorie finden Sie hier .
Also würde ich zu 1 sagen: Angemessene Parameterschätzungen sind möglich. Größe = unendlich oder Streuung = 0 ist eine vernünftige Schätzung für die Stichprobe. Betrachten Sie einen anderen Parameterraum und die Schätzungen sind endlich.
quelle
ML-Eigenschaften gelten für eine große Stichprobengröße: Unter Regularitätsbedingungen wird gezeigt, dass eine ML-Schätzung existiert, eindeutig ist und zum wahren Parameter tendiert. Für eine gegebene endliche Stichprobengröße kann es jedoch vorkommen, dass die ML-Schätzung in der Domäne nicht existiert, z. B. weil das Maximum an der Grenze erreicht ist. Es kann auch in einer Domäne vorhanden sein, die größer als die für die Maximierung verwendete ist.
Aus Gründen der Invarianz durch Neuparametrisierung glaube ich, dass unendliche Parameter in einigen Fällen sinnvoll sein können.
quelle