Die Wahrscheinlichkeitsfunktion ist definiert als die Wahrscheinlichkeit eines Ereignisses (Datensatz ) in Abhängigkeit von den Modellparameternx θExθ
L(θ;x)∝P(Event E;θ)=P(observing x;θ).
Es besteht daher keine Vermutung der Unabhängigkeit der Beobachtungen. Im klassischen Ansatz gibt es keine Definition für die Unabhängigkeit von Parametern, da es sich nicht um Zufallsvariablen handelt. einige relevanten Konzepte könnten Identifizierbarkeit , Parameter Orthogonalität , und die Unabhängigkeit des Maximum - Likelihood - Schätzer (die Zufallsvariablen).
Einige Beispiele,
(1). Diskreter Fall . ist eine Probe (unabhängiger) diskreter Beobachtungen mit , dannP ( Beobachtung x j ; θ ) > 0x =( x1, . . . , xn)P (Beobachtung von xj; θ ) > 0
L (θ;x)∝ ∏j = 1nP (Beobachtung von xj;θ).
Insbesondere wenn ist und N bekannt ist, haben wir dasxj∼Binomial(N,θ)N
L(θ;x)∝∏j=1nθxj(1−θ)N−xj.
(2). Kontinuierliche Approximation . Let wird , um eine Probe aus einer kontinuierlichen Zufallsvariablen X , mit der Verteilung F und Dichte f , mit Messfehlern ε , ist dies, um die Sätze beobachten ( x j - ε , x j + ϵ ) . Dannx=(x1,...,xn)XFfϵ(xj−ϵ,xj+ϵ)
L(θ;x)∝∏j=1nP[observing (xj−ϵ,xj+ϵ);θ]=∏j=1n[F(xj+ ϵ ; θ ) - F( xj- ϵ ; θ ) ]
Wenn klein ist, kann dies (unter Verwendung des Mittelwertsatzes) durch angenähert werdenϵ
L (θ;x)∝ ∏j = 1nf( xj; θ )
Ein Beispiel mit dem Normalfall, werfen Sie einen Blick auf diese .
(3). Abhängiges und Markov-Modell . Nehmen wir an, dass ist eine Reihe von Beobachtungen , möglicherweise abhängig und lassen f die gemeinsame Dichte sein x , dannx =( x1, . . . , xn)fx
L (θ;x)≤f( x ; θ ) .
Wenn zusätzlich die Markov-Eigenschaft erfüllt ist, dann
L (θ;x)≤f( x ; & thgr ; ) = f( x1; θ ) ∏j = 1n - 1f( xj + 1| xj; θ ) .
Nehmen Sie auch einen Blick auf diese .
(+1) Sehr gute Frage.
Kleinigkeit, MLE steht für Maximum Likelihood Estimation (nicht multipliziert), was bedeutet, dass Sie nur die Wahrscheinlichkeit maximieren. Dies gibt nicht an, dass die Wahrscheinlichkeit durch IID-Abtastung erzeugt werden muss.
Wenn die Abhängigkeit der Stichprobe im statistischen Modell geschrieben werden kann, schreiben Sie einfach die Wahrscheinlichkeit entsprechend und maximieren sie wie gewohnt.
Der ein Fall erwähnenswert , wenn Sie nicht Abhängigkeit davon ausgehen , dass das multivariaten Gauß - Sampling (in der Zeit zum Beispiel Reihenanalyse). Die Abhängigkeit zwischen zwei Gaußschen Variablen kann durch ihren Kovarianzterm modelliert werden, den Sie in die Wahrscheinlichkeit einbeziehen.
Um ein vereinfachtes Beispiel zu geben, nehmen Sie an, dass Sie eine Stichprobe der Größe aus korrelierten Gaußschen Variablen mit dem gleichen Mittelwert und der gleichen Varianz ziehen. Du würdest die Wahrscheinlichkeit schreiben als2
wo istz
Dies ist nicht das Produkt der einzelnen Wahrscheinlichkeiten. Dennoch würden Sie dies mit Parametern maximieren , um deren MLE zu erhalten.(μ,σ,ρ)
quelle
Natürlich besitzen Gaußsche ARMA-Modelle eine Wahrscheinlichkeit, da ihre Kovarianzfunktion explizit abgeleitet werden kann. Dies ist im Grunde eine Erweiterung der Antwort von gui11ame auf mehr als zwei Beobachtungen. Minimales Googeln erzeugt Papiere wie dieses, bei denen die Wahrscheinlichkeit in der allgemeinen Form angegeben ist.
Eine weitere, in gewissem Maße faszinierendere Klasse von Beispielen sind Modelle mit mehrstufigen Zufallseffekten . Wenn Sie Daten des Formulars haben
quelle