Was ist der Unterschied zwischen Richtlinieniteration und Wertiteration beim verstärkten Lernen ?
Soweit ich weiß, verwenden Sie bei der Wertiteration die Bellman-Gleichung, um die optimale Richtlinie zu ermitteln, während Sie bei der Richtlinieniteration zufällig eine Richtlinie π auswählen und die Belohnung für diese Richtlinie ermitteln.
Mein Zweifel ist, dass, wenn Sie eine zufällige Richtlinie π in PI auswählen, wie garantiert ist, dass diese die optimale Richtlinie ist, selbst wenn wir mehrere zufällige Richtlinien auswählen.
Antworten:
Schauen wir sie uns nebeneinander an. Die wichtigsten Teile zum Vergleich sind hervorgehoben. Die Zahlen stammen aus Sutton und Bartos Buch: Reinforcement Learning: Eine Einführung .
Wichtige Punkte:
Nach meiner Erfahrung ist die Richtlinieniteration schneller als die Wertiteration , da eine Richtlinie schneller konvergiert als eine Wertfunktion. Ich erinnere mich, dass dies auch im Buch beschrieben ist.
Ich denke, die Verwirrung kam hauptsächlich von all diesen etwas ähnlichen Begriffen, die mich auch vorher verwirrten.
quelle
In Richtlinieniterationsalgorithmen beginnen Sie mit einer zufälligen Richtlinie, suchen dann die Wertfunktion dieser Richtlinie (Schritt zur Richtlinienbewertung) und suchen dann eine neue (verbesserte) Richtlinie basierend auf der vorherigen Wertfunktion usw. In diesem Prozess wird garantiert, dass jede Richtlinie eine strikte Verbesserung gegenüber der vorherigen darstellt (es sei denn, sie ist bereits optimal). Bei einer bestimmten Richtlinie kann ihre Wertefunktion mit dem Bellman-Operator abgerufen werden .
Bei der Wertiteration beginnen Sie mit einer Zufallswertfunktion und finden dann in einem iterativen Prozess eine neue (verbesserte) Wertfunktion, bis Sie die optimale Wertfunktion erreicht haben. Beachten Sie, dass Sie die optimale Richtlinie leicht aus der Funktion für den optimalen Wert ableiten können. Dieser Prozess basiert auf dem Optimalitäts-Bellman-Operator .
In gewissem Sinne haben beide Algorithmen dasselbe Arbeitsprinzip und können als zwei Fälle der verallgemeinerten Richtlinieniteration angesehen werden . Der Optimalitäts-Bellman-Operator enthält jedoch einen Max- Operator, der nicht linear ist und daher unterschiedliche Merkmale aufweist. Darüber hinaus können hybride Methoden zwischen reiner Wertiteration und reiner Richtlinieniteration verwendet werden.
quelle
Der grundlegende Unterschied ist -
In Richtlinieniteration - Sie wählen zufällig eine Richtlinie aus und suchen die entsprechende Wertfunktion. Suchen Sie dann eine neue (verbesserte) Richtlinie basierend auf der vorherigen Wertfunktion. Dies führt zu einer optimalen Richtlinie.
In Wertiteration - Sie wählen zufällig eine Wertefunktion aus und suchen dann in einem iterativen Prozess eine neue (verbesserte) Wertfunktion, bis die optimale Wertfunktion erreicht ist. Anschließend leiten Sie aus dieser optimalen Wertfunktion eine optimale Richtlinie ab.
Die Richtlinieniteration basiert auf dem Prinzip „Richtlinienbewertung -> Richtlinienverbesserung“.
Die Wertiteration funktioniert nach dem Prinzip der „Optimalwertfunktion -> optimale Richtlinie“.
quelle
Für mich ist VI im Gegensatz zu @zyxues Idee im Allgemeinen viel schneller als PI.
Der Grund ist sehr einfach, wie Sie bereits wussten, wird die Bellman-Gleichung zum Lösen der Wertfunktion für eine bestimmte Richtlinie verwendet. Da wir die Wertfunktion für eine optimale Richtlinie direkt lösen können, ist das Lösen der Wertfunktion für eine aktuelle Richtlinie offensichtlich Zeitverschwendung.
Was Ihre Frage zur Konvergenz von PI betrifft, könnten Sie die Tatsache übersehen, dass Sie die Strategie für das gesamte Spiel verbessern, wenn Sie die Strategie für jeden Informationsstatus verbessern. Dies ist auch leicht zu beweisen, wenn Sie mit der Minimierung des kontrafaktischen Bedauerns vertraut waren - die Summe des Bedauerns für jeden Informationszustand hat die Obergrenze des allgemeinen Bedauerns gebildet, und somit minimiert das Bedauern für jeden Zustand das allgemeine Bedauern, was führt zur optimalen Politik.
quelle