Das Problem der Kovariatenverschiebung führt letztendlich zu Datensätzen mit unterschiedlicher zugrunde liegender mathematischer Struktur. Nun Manifold Lernen schätzt eine geringe dimensionale Darstellung von hochdimensionalen Daten , wodurch die darunter liegende Struktur enthüllt. Oft sind Manifold Learning-Techniken keine Projektionen - daher anders und leistungsfähiger als Standard-PCA.
Ich habe vielfältige Lerntechniken (z. B. IsoMap, MDS usw.) verwendet, um die "(Dis-) Ähnlichkeit" zwischen Zug- und Testdatensätzen zu visualisieren (und wenn möglich zu quantifizieren).