Man betrachte die folgende Differentialgleichung wobei der Zustand und die Steuervariable ist. Die Lösung ist gegeben durch \ begin {align} x (t) = x_0 + \ int ^ t_0f (x (s), u (s)) ds. \ end {align} wobei x_0: = x (0) der angegebene Anfangszustand ist.
Betrachte nun das folgende Programm wobei \ rho> 0 die Zeitpräferenz bezeichnet, V (\ cdot) der Wert ist und F (\ cdot) eine objektive Funktion. Eine klassische wirtschaftliche Anwendung ist das Ramsey-Cass-Koopmans-Modell für optimales Wachstum. Die Hamilton-Jacobi-Bellman-Gleichung ist gegeben durch \ begin {align} \ rho V (x) = \ max_u [F (x, u) + V '(x) f (x, u)], \ quad \ forall t \ in [0, \ infty). \ end {align}
Angenommen, ich habe die HJB für V gelöst . Die optimale Steuerung ist dann gegeben durch
Der Wiki- Artikel sagt
... aber wenn über den gesamten Zustandsraum gelöst, ist die HJB-Gleichung eine notwendige und ausreichende Bedingung für ein Optimum.
In Bertsekas (2005) Dynamic Programming and Optimal Control , Band 1, 3. Aufl., In Proposition 3.2.1, stellt er fest, dass das Lösen nach die optimale Cost-to-Go-Funktion und das zugehörige optimal ist. Er erklärt es jedoch ausdrücklich als einen Suffizienzsatz.
Eigentlich möchte ich nur sicherstellen, dass ich mich nicht mit zusätzlichen Optimalitätsbedingungen befassen muss, wenn ich die HJB gelöst und die zugehörigen Zustands- und Steuerbahnen wiederhergestellt habe.
Lösung
Ich versuche
Ich denke, ich konnte notwendige Bedingungen aus dem Maximalprinzip durch die HJB-Gleichung selbst ableiten.
Definiere das Hamilton'sche
dann haben wir
das ist
Definieren Sie eine beliebige Funktion mit . Fixiere nun q ( 0 ) = lim t → ∞ q ( t ) = 0
Dabei ist ein Parameter. Fügen Sie den Term in den maximierten Hamilton-Ausdruck ein, der ρ V ( x * + ε q ) = H ( x * + ε q , u * , V ' ( x * + ε q ) ) .
Bei wir die optimale Lösung. Also differenziere über , um eine Bedingung erster Ordnung ε ρ V ' q = H x q + H V ' V " q .
Definieren Sie nun die adjungierte Variable mit
Differenziere über die Zeit
und beachte, dass
Stecke alles in den FOC, was
Das ist es ziemlich genau. Das Lösen des HJB ist also in der Tat notwendig und ausreichend (hier weggelassen) für die Optimalität. Jemand sollte es zum Wiki hinzufügen. Könnte Zeit sparen für Leute, die über solche Probleme nachdenken (wird meiner Meinung nach nicht viel sein).
Es fehlt jedoch die Transversalitätsbedingung .
II Versuch
Definiere die Auszahlungsfunktion
Beachten Sie, dass durch Definition von . Addiere den neutralen Term zu der Auszahlungsfunktion
Die Integration von Teilen des richtigen Terms und der rhs ergibt
Ersetzen Sie diesen Term durch
Definiere
was gibt
FOC für maximalesJ ε = ∫ ∞ 0 e - ρ t [ H x q + H u p + q ( ˙ λ - ρ λ ) ] d t - lim t → ∞ e - ρ t λ (
Da und sind, müssen wir
Antworten:
(Dies sollte vielleicht als Kommentar angesehen werden.)
Wenn Sie die HJB-Gleichung gelöst haben, ist es ausreichend, die optimale Lösung zu erhalten. Sie müssen sich also nicht "mit anderen Optimalitätsbedingungen befassen", von denen ich glaube, dass sie Ihre Frage beantworten.
Es scheint, dass Sie über die "notwendige" Komponente des Theorems besorgt sind. Die Notwendigkeitsseite der Aussage lautet wie folgt: Wenn es eine optimale Lösung gibt, muss es eine Lösung für die HJB-Gleichung geben.
Ich habe mit diesem speziellen Problem nicht gearbeitet, aber die Antwort im Allgemeinen lautet, dass wir keine differenzierbare Funktion V erwarten. Daher haben wir keine Lösung für die angegebene Gleichung. Stattdessen müssen wir uns verallgemeinerte Ableitungen ansehen und die HJB-Gleichung in eine Ungleichung umwandeln. In diesem Fall erhalten Sie möglicherweise eine "viskose Lösung". Wenn wir auf die Verwendung von verallgemeinerten Derivaten ausdehnen, kann möglicherweise nachgewiesen werden, dass eine solche Lösung immer existiert. Wenn Sie einen Blick auf Ihre Beweise werfen, helfen sie nicht bei den notwendigen Bedingungen, da Sie von einer Differenzierbarkeit ausgehen.
quelle