Ich entschuldige mich im Voraus, wenn diese Frage schlecht gestellt ist: Ich bin ein Astronom, kein Statistiker. Meine Frage soll mir speziell helfen, herauszufinden, ob Gaußsche Prozesse eine geeignete Technik für mein Problem sind.
Mit einem Teleskop und einem fasergespeisten Spektrographen hat mein Projekt an vielen Orten das optische Spektrum einer Galaxie aufgenommen. Das Abtastmuster für einen einzelnen Punkt befindet sich im ersten Bild und wird insgesamt dreimal mit unterschiedlichen räumlichen Versätzen wiederholt, um die Lücken zu füllen (zweites Bild). Idealerweise möchte ich Schätzungen bestimmter Größen über ein Gitter erstellen, das die Galaxie abdeckt.
Meine naive Methode wäre, das Spektrum jeder Faser separat zu analysieren, so dass ich -Punktschätzungen der interessierenden Größen habe, und dann einen Gaußschen Prozess zu konstruieren, um diese Größen überall zu schätzen. In ähnlicher Weise könnte ich einen Gaußschen Prozess für die Spektren selbst konstruieren und dann den GP in meinem Raster der Wahl analysieren, um die Größen zu finden, an denen ich interessiert bin. Ich bin mir jedoch nicht sicher, ob dies überhaupt ein gültiger Ansatz ist, da meine Beobachtungen dies sind nicht diskret, sondern fallen zusammen.
Im Gegensatz zu beispielsweise Bodenwissenschaftlern, die möglicherweise Schmutz von einem sehr diskreten Ort aus untersuchen und sich dann 50 Meter entfernt und wiederholen, überlappen sich meine Beobachtungen räumlich, sodass ich das gesamte Licht, das eine Galaxie abgibt, integriere. Mir ist nicht klar, dass ich jede räumliche Variation, die innerhalb einer bestimmten Messung existieren könnte, vernachlässigen darf. Mit anderen Worten, ist ein Gaußscher Prozess überhaupt gültig, wenn einzelne Probenahmestellen nicht klein sind? Kann ich einen zusätzlichen räumlichen Begriff einbauen, um das "Mischen" des Lichts innerhalb einer einzelnen Faser zu berücksichtigen?
Nachtrag: Traditionell werden Spektren nur interpoliert, in einem Raster neu abgetastet und dann analysiert, was mir ebenfalls als äußerst falsch erscheint. Wenn ich jedoch auf Paraden von Kollegen regnen will, möchte ich zumindest eine alternative Methode vorstellen.
quelle
In der Geostatistik gibt es ein Thema namens Exact Downscaling. Das Hauptziel hierbei ist es, eine Eigenschaft in einem kleineren Maßstab als die Beobachtungen zu schätzen. Auch diese Beobachtungen können sich überschneiden oder nicht (spielt keine Rolle). Bitte schauen Sie sich dieses Papier an: http://www.ccgalberta.com/ccgresources/report07/2005-101-exact_reproduction.pdf
In diesem Artikel zeigen sie eine Methode, um die Beobachtungen mithilfe geostatistischer Techniken zu verkleinern. Sie zeigen, dass durch korrekte Berechnung der Kreuzkovarianzen zwischen verschiedenen Datenskalen (Punkt gegen Block) die Kriging-Schätzung weiterhin gültig ist; so dass der Durchschnitt der geschätzten Werte in kleinerem Maßstab gleich größeren Eingabedaten ist. Grundsätzlich müssen Sie zur Berechnung der Schätzwerte in einer beliebigen Skala nur die Kovarianzfunktion zwischen den Eingabedaten, Zielskalen und Kreuzkorrelationen korrekt berechnen. Beim Gaußschen Prozess wird davon ausgegangen, dass die Schätzung im gleichen Maßstab wie die Eingabebeobachtungen erfolgt.
Das sind also die Schritte: 1- Berechnen Sie das experimentelle Variogramm aus Ihren Daten.
2- Passen Sie das Variogrammmodell an Ihr experimentelles Variogam an. Möglicherweise müssen Sie hier die Richtungsanisotropie berücksichtigen. Dies ist die Kovarianzfunktion, die in GP nach der Maximum-Likelihood-Methode berechnet wird.
3- Berechnen Sie alle Kovarianzen und Kreuzkovarianzen zwischen Eingabedaten und Zielskala. Für diesen Schritt gibt es numerische Belege. Die Idee ist, dass Sie durch Diskretisierung der Blöcke in endliche Punkte die durchschnittliche Kovarianz berechnen können. Die Überlappungsdaten sollten hier berücksichtigt werden.
4- Kriging durchführen und die Schätzwerte berechnen.
GP ist ein sehr verwandtes Thema der Geostatistik. Die Geostatistik ist jedoch nicht auf Gaußsche Prozesse beschränkt. Es gibt viele andere Methoden, um einen zufälligen Prozess abzuschätzen oder zu simulieren.
quelle