Der angehängte Datensatz zeigt ca. 6000 Setzlinge in ca. 50 unterschiedlich großen Waldlücken. Ich bin daran interessiert zu erfahren, wie diese Setzlinge innerhalb ihrer jeweiligen Lücken wachsen (dh gebündelt, zufällig, verteilt). Wie Sie wissen, würde ein traditioneller Ansatz darin bestehen, Global Morans I zu betreiben. Aggregationen von Bäumen innerhalb von Aggregationen von Lücken scheinen jedoch eine unangemessene Verwendung von Morans I zu sein. was zu unsinnigen Ergebnissen führte (dh p-Wert = 0,0000000 ...). Die Wechselwirkung zwischen den Lückenaggregationen führt wahrscheinlich zu diesen Ergebnissen. Ich habe darüber nachgedacht, ein Skript zu erstellen, um einzelne Lücken in der Überdachung zu durchlaufen und die Clusterbildung in jeder Lücke zu bestimmen, obwohl es problematisch wäre, diese Ergebnisse der Öffentlichkeit anzuzeigen.
Was ist der beste Ansatz zur Quantifizierung der Clusterbildung innerhalb von Clustern?
quelle
Antworten:
Sie haben kein einheitliches Zufallsfeld. Wenn Sie also versuchen, alle Ihre Daten auf einmal zu analysieren, verstoßen Sie gegen die Annahmen einer Statistik, mit der Sie das Problem lösen. Aus Ihrem Beitrag geht nicht hervor, ob es sich bei Ihren Daten um einen markierten Punktprozess handelt (dh Durchmesser oder Höhe, die mit jedem Baumstandort verknüpft sind). Wenn diese Daten keinen markierten Punktprozess darstellen, habe ich keine Ahnung, wie Sie ein Moran's-I angewendet haben. Wenn die Daten nur räumliche Orte darstellen, würde ich die Verwendung eines Ripley's-K mit der Besag-L-Transformation empfehlen, um die Nullerwartung auf Null zu standardisieren. Dies ermöglicht eine mehrskalige Beurteilung der Clusterbildung. Wenn Ihren Daten ein Wert zugeordnet ist, ist die beste Option ein lokales Moran's-I (LISA). Ich würde es mir mit beiden Statistiken ansehen. Unabhängig von Ihrer Wahl, Sie müssen weiterhin jede einzelne Site durchlaufen, um gültige Ergebnisse zu erzielen. Hier ist ein Beispiel eines R-Codes für eine Monte-Carlo-Simulation von Ripley's-K / Besag's-L unter Verwendung des eingebauten Redwood-Setzling-Datensatzes. Es sollte ziemlich einfach sein, dies zu ändern, um eine Schleife durch Ihre Websites zu erstellen und für jede ein Diagramm zu erstellen.
quelle
Was Sie haben, ist ein Punktmuster mit einem Fenster, das aus mehreren kleinen nicht verbundenen polygonalen Bereichen besteht.
Sie sollten in der Lage sein, jeden der
package:spatstat
CSR- Tests zu verwenden, solange Sie ihn mit einem korrekten Fenster füttern. Dies kann entweder eine Anzahl von Sätzen von (x, y) Paaren sein, die jede Löschung definieren, oder eine binäre Matrix von (0,1) Werten über den Raum.Definieren wir zunächst etwas, das Ihren Daten ähnelt:
und lassen Sie uns so tun, als wären unsere Lichtungen quadratische Zellen, die einfach so sind:
So können wir die K-Funktion dieser Punkte in diesem Fenster zeichnen. Wir erwarten, dass dies keine CSR ist, da die Punkte in den Zellen gebündelt zu sein scheinen. Beachten Sie, dass ich den Entfernungsbereich so ändern muss, dass er klein ist - in der Größenordnung der Zellengröße - sonst wird die K-Funktion über Entfernungen der Größe des gesamten Musters ausgewertet.
Wenn wir einige CSR-Punkte in denselben Zellen erzeugen, können wir die K-Funktionsdiagramme vergleichen. Dieser sollte eher CSR sein:
Sie können die in den Zellen gebündelten Punkte im ersten Muster nicht wirklich sehen, aber wenn Sie sie einzeln in einem Grafikfenster zeichnen, ist sie klar. Die Punkte im zweiten Muster sind innerhalb der Zellen einheitlich (und existieren nicht im schwarzen Bereich) und die K-Funktion unterscheidet sich deutlich von
Kpois(r)
der CSR-K-Funktion für die gruppierten Daten und ähnlich für die einheitlichen Daten.quelle
Zusätzlich zu Andys Beitrag:
Was Sie berechnen möchten, ist ein Maß für die räumliche Homogenität (ergo die Hypothese: "Sind Ihre Punkte gebündelt?") Wie die L- und K-Funktion von Ripley .
Dieser Blog-Beitrag erklärt die Vorgehensweise in R ziemlich gut. Basierend auf dem beschriebenen Code würde ich zuerst jeden Cluster in Ihrem Datensatz kennzeichnen und dann in einer Schleife für jeden Cluster die kritische Hüllkurve durch Ripleys K berechnen
quelle