Ich arbeite an Computer Vision und muss eine Zielfunktion optimieren, die Matrix beinhaltet und Matrix ist eine orthogonale Matrix.
Wo ist die Einheitsmatrix. Ich lese gerade eine Zeitung und sie sprachen über komplizierte Begriffe wie Optimierung über Grassmanian Manfiold, Stiefel Manifold. Grundsätzlich unterscheidet sich der Gradient auf diesen Mannigfaltigkeiten von den regulären Gradienten über euklidischen Räumen.
Können Sie mir ein leicht zu lesendes Papier vorschlagen, damit ich die gradientenbasierte Methode auf diesen Mannigfaltigkeiten implementieren kann? Wenn es einfache Matlab-Beispiele gibt, die die Dokumente veranschaulichen, ist dies hilfreich
Vielen Dank
optimization
orthogonal
Lan Trần Thị
quelle
quelle
Antworten:
Ich fand das folgende Papier nützlich:
Dieses Dokument enthält weitaus mehr Informationen als Sie möglicherweise benötigen, was die Differentialgeometrie und Optimierungsmethoden höherer Ordnung betrifft.
Die Informationen zur Beantwortung Ihrer Frage sind jedoch recht einfach und enthalten hauptsächlich die Gleichungen 2.53 und 2.70, die beide die Form haben
Im ungezwungenen FallΦ=0 im eingeschränkten Fall Φ nimmt zwei Formen an:
Die zweite Form ist
Ein einfaches Beispiel ist die Approximation einer gegebenen MatrixA∈Rn×p mit p≤n durch eine orthogonale Matrix X Minimieren des Fehlers der kleinsten Quadrate. In diesem Fall haben wir
Für den Grassmann-Fall haben wir
Für den Stiefel-Fall haben wir
Diese beiden Fälle, Grassmann vs. Stiefel, entsprechen im Wesentlichen dem Unterschied zwischen " PCA vs. ZCA Whitening ". In Bezug auf die SVD , wenn die Eingabematrix istA=USVT , dann sind die Lösungen XG=U und XS=UVT . Die PCA-LösungXG gilt nur für eine quadratische Eingabe, dh A muss die " Kovarianzmatrix " sein. Allerdings die ZCA-LösungXS kann verwendet werden, wenn A ist eine " Datenmatrix ". (Dies ist besser bekannt als das Problem der orthogonalen Krusten .)
quelle