Angenommen, ich habe das folgende Modell
Dabei ist , ein Vektor erklärender Variablen, die Parameter der nichtlinearen Funktion und , wobei natürlich Matrix.x i θ f ≤ i ≤ N ( 0 , ≤ ) ≤ K × K
Das Ziel ist die übliche Schätzung von und . Die naheliegende Wahl ist die Maximum-Likelihood-Methode. Log-Wahrscheinlichkeit für dieses Modell (vorausgesetzt, wir haben eine Stichprobe ) sieht so aus& Sigma; ( y i , x i ) , i = 1 , . . . , n
Nun scheint dies einfach zu sein, die Log-Wahrscheinlichkeit wird angegeben, Daten eingegeben und ein Algorithmus für die nichtlineare Optimierung verwendet. Das Problem ist, wie sichergestellt werden kann, dass definitiv positiv ist. Die Verwendung von beispielsweise in R (oder einem anderen nichtlinearen Optimierungsalgorithmus) garantiert mir nicht, dass eindeutig positiv ist.Σoptim
Die Frage ist also, wie sichergestellt werden kann, dass eindeutig positiv bleibt. Ich sehe zwei mögliche Lösungen:
als umparametrieren wobei eine obere Dreiecksmatrix oder eine symmetrische Matrix ist. Dann ist immer positiv und kann frei sein.R R ' R Σ R
Verwenden Sie die Profilwahrscheinlichkeit. Leiten Sie die Formeln für und . Beginnen Sie mit einigem und iterieren Sie , bis zur Konvergenz.
Gibt es einen anderen Weg und was ist mit diesen beiden Ansätzen, funktionieren sie, sind sie Standard? Dies scheint ein ziemlich normales Problem zu sein, aber die schnelle Suche hat mir keine Hinweise gegeben. Ich weiß, dass auch eine Bayes'sche Schätzung möglich wäre, aber im Moment würde ich mich nicht darauf einlassen wollen.
Antworten:
Unter der Annahme, dass Sie sich beim Erstellen der Kovarianzmatrix automatisch um das Symmetrieproblem kümmern, ist Ihre Log-Wahrscheinlichkeit wenn aufgrund des Terms in nicht positiv bestimmt ist Modell richtig? Um einen numerischen Fehler zu vermeiden, wenn würde ich vorberechnen und, falls dies nicht positiv ist, die Log-Wahrscheinlichkeit gleich -Inf machen, andernfalls fortfahren. Sie müssen die Determinante sowieso berechnen, so dass dies Sie keine zusätzliche Berechnung kostet. Σ log d e t Σ d e t Σ < 0 d e t Σ−∞ Σ logdet Σ det Σ<0 det Σ
quelle
Wie sich herausstellt, können Sie die maximale Profilwahrscheinlichkeit verwenden, um die erforderlichen Eigenschaften sicherzustellen. Sie können für gegebene beweisen , dass , durch maximiert l( θ ,Σ)θ^ l(θ^,Σ)
woher
Dann ist es möglich, das zu zeigen
Daher müssen wir nur maximieren
In diesem Fall erfüllt natürlich alle erforderlichen Eigenschaften. Die Beweise sind identisch für den Fall, dass linear ist, was in der Zeitreihenanalyse von JD Hamilton auf Seite 295 zu finden ist, daher habe ich sie weggelassen.fΣ f
quelle
Eine alternative Parametrisierung für die Kovarianzmatrix sind die Eigenwerte und "Givens" -Winkel . p ( p - 1 ) / 2 θ i jλ1,...,λp p ( p - 1 ) / 2 θichj
Das heißt, wir können schreiben
wobei orthonormal ist undG
mit .λ1≥ . . . ≥ λp≥ 0
In der Zwischenzeit kann in Form von Winkeln, , mit und eindeutig parametrisiert werden . [1]p ( p - 1 ) / 2 θ i j i = 1 , 2 , . . . , P - 1 j = i , . . . , p - 1G p ( p - 1 ) / 2 θich j i = 1 , 2 , . . . , p - 1 j = i , . . . , p - 1
(Details hinzugefügt werden)
[1]: Hoffman, Raffenetti, Ruedenberg. "Verallgemeinerung von Eulerwinkeln zu N-dimensionalen orthogonalen Matrizen". J. Math. Phys. 13, 528 (1972)
quelle
In Anlehnung an die Lösung von charles.y.zheng möchten Sie möglicherweise modellieren , wobei eine Diagonalmatrix und eine Cholesky-Faktorisierung einer Rangaktualisierung von . Sie müssen nur dann die Diagonale von positiv halten, um positiv eindeutig zu halten . Das heißt, Sie sollten die Diagonale von und die Elemente von schätzen, anstatt schätzen . Λ C Λ Λ Σ Λ C ΣΣ = Λ + CC⊤ Λ C Λ Λ Σ Λ C Σ
quelle