Ich möchte nur, dass jemand mein Verständnis bestätigt oder mir etwas fehlt.
Die Definition eines Markov-Prozesses besagt, dass der nächste Schritt nur vom aktuellen Status und nicht von früheren Status abhängt. Nehmen wir also an, wir hatten einen Zustandsraum von a, b, c, d und gehen von a-> b-> c-> d aus. Das heißt, der Übergang zu d konnte nur von der Tatsache abhängen, dass wir uns in c befanden.
Stimmt es jedoch, dass Sie das Modell einfach komplexer machen und diese Einschränkung umgehen könnten? Mit anderen Worten, wenn Ihr Statusraum jetzt aa, ab, ac, ad, ba, bb, bc, bd, ca, cb, cc, cd, da, db, dc, dd wäre, bedeutet dies, dass Ihr neuer Statusraum zum wird vorheriger Zustand kombiniert mit dem aktuellen Zustand, dann wäre der obige Übergang * a-> ab-> bc-> cd und so ist der Übergang zu cd (äquivalent im vorherigen Modell zu d) nun "abhängig" von einem Zustand, Wenn anders modelliert, ist dies ein vorheriger Zustand (ich bezeichne ihn im Folgenden als Unterzustand).
Habe ich recht, dass man es "von früheren Zuständen abhängig machen kann (Unterzustand)" (ich weiß technisch nicht, dass es im neuen Modell kein realer Zustand mehr ist), indem man die markov-Eigenschaft erweitert der Staatsraum wie ich? Man könnte also tatsächlich einen Markov-Prozess erstellen, der von einer beliebigen Anzahl vorheriger Unterzustände abhängen könnte.
quelle
Die Definition eines Markov-Prozesses besagt, dass der nächste Schritt nur vom aktuellen Status und nicht von früheren Status abhängt.
Vielleicht möchten Sie einen Blick auf aktuelle Veröffentlichungen wie die multivariaten Markov-Ketten höherer Ordnung und ihre Anwendungen werfen, da dieses Feld sich rasant weiterentwickelt.
quelle