Betrachten Sie als Motivationsmittel für die Frage ein Regressionsproblem, bei dem wir versuchen, anhand der beobachteten Variablen zu schätzen.{ a , b }
Bei der multivariaten Polynom-Regression versuche ich, die optimale Parametrisierung der Funktion zu finden
welche am besten zu den Daten im kleinsten Quadrat passen.
Das Problem dabei ist jedoch, dass die Parameter nicht unabhängig sind. Gibt es eine Möglichkeit, die Regression auf einem anderen Satz von "Basis" -Vektoren durchzuführen, die orthogonal sind? Dies hat viele offensichtliche Vorteile
1) Die Koeffizienten sind nicht mehr korreliert. 2) Die Werte der selbst hängen nicht mehr vom Grad der Koeffizienten ab. 3) Dies hat auch den rechnerischen Vorteil, dass die Terme höherer Ordnung für eine gröbere, aber immer noch genaue Annäherung an die Daten gelöscht werden können.
Dies wird im Fall einer einzelnen Variablen unter Verwendung orthogonaler Polynome unter Verwendung einer gut untersuchten Menge wie der Chebyshev-Polynome leicht erreicht. Es ist jedoch (für mich jedenfalls) nicht klar, wie man das verallgemeinert! Mir kam der Gedanke, dass ich Chebyshev-Polynome paarweise vervielfachen könnte, aber ich bin mir nicht sicher, ob dies die mathematisch korrekte Vorgehensweise ist.
Deine Hilfe ist wilkommen
quelle
Antworten:
Zum Abschluss (und um die Statistiken dieser Website zu verbessern, ha) muss ich mich fragen, ob dieses Papier Ihre Frage nicht auch beantworten würde.
Ansonsten ist die Tensorproduktbasis eindimensionaler Polynome nicht nur die geeignete Technik, sondern auch die einzige , die ich dafür finden kann.
quelle