Welche Resampling-Technik sollte bei der Projektion von Luftbildern angewendet werden?

23

Ich mache eine zeitintensive Projektion von Luftbildern und bin gespannt, welche Resampling-Technik für Luftbilder am besten geeignet ist. In ArcMap stehen die Optionen NEAREST, BILINEAR, CUBIC und MAJORITY zur Verfügung.

Nearest Neighbor und Majority werden für kategoriale Daten empfohlen, während Cubic Convolution und Bilinear Interpolation für kontinuierliche Daten gelten.

Ich bin gespannt, ob es einen allgemein verwendeten Algorithmus für die Projektion von Luftbildern gibt . Ich habe gerade ein Bild mit Nearest Neighbour fertig projiziert und es sieht anscheinend gut aus, aber ein Luftbild ist kein kategoriales Datenmaterial, deshalb versuche ich es als nächstes mit Bilinear.

BEARBEITEN
Ich habe Luftbilder nicht als die gleiche Art von kontinuierlichen Daten wie DEMs oder Niederschlagsdaten betrachtet, aber ich habe darauf hingewiesen, dass sie kontinuierlich sind und als solche behandelt werden sollten. Danke noch einmal.

Gerber
quelle
1
Vielleicht interessiert Sie auch der eng verwandte Thread unter gis.stackexchange.com/questions/2587/… .
whuber
Könnte jemand eine wissenschaftliche Arbeit vorlegen, in der die verschiedenen Resampling-Methoden sowohl für kontinuierliche als auch für kategoriale Daten verglichen werden?
NikosGr

Antworten:

25

Luftbilder sind fortlaufende Daten. Jedes Pixel repräsentiert die Reaktion eines Bereichs eines Sensors auf darauf gerichtetes Licht, und da sich dieses Licht ändert, ändert sich die Reaktion kontinuierlich. Das Ergebnis ist normalerweise diskretisiert (häufig in 255 oder 256), aber das ändert nichts an der Art der Daten. Daher möchten Sie interpolieren, anstatt kategoriale Algorithmen wie den nächsten Nachbarn oder die Mehrheit zu verwenden. Bilineare Interpolation ist normalerweise in Ordnung. Mit einigem Aufwand in der Ausführungszeit wird die kubische Faltung den lokalen Kontrast ein wenig besser beibehalten. Ein wenig zusätzliche Unschärfe ist unvermeidlich, aber das ist fast unmöglich zu bemerken, bis das Bild viele solcher Transformationen erfahren hat. Die mit dem nächsten Nachbarn gemachten Fehler sind im Vergleich viel schlimmer.

whuber
quelle
7
Das ist eine großartige Antwort. Ich würde hinzufügen, dass gelegentlich kubische Faltung ungewöhnliche Streifenbildung einführt; Dies gilt insbesondere, wenn das Foto zuvor erneut abgetastet oder geschärft wurde. Ich gehe im Allgemeinen mit kubischer Faltung um, wenn ich diese Verzerrungen nicht sehe, und wechsle dann zur bilinearen Interpolation. Die eigentliche Frage für mich ist immer, welches Histogramm für das Farb-Resampling verwendet werden soll. Ich bevorzuge ein lineares Min-Max-Histogramm, aber manchmal hebt ein Histogramm mit 2 Standardabweichungen die Hauptmerkmale besser hervor.
Blord-Castillo
5

Mir fehlt der "Ruf", so zu kommentieren ...

Wenn radiometrische Analysen an den Luftbildern durchgeführt werden sollen, sollten diese vor dem Resampling / Projizieren durchgeführt werden. Andernfalls werden Sie mit ziemlicher Sicherheit unbeabsichtigte Verzerrungen in das Endprodukt einbringen. Laut dem hilfreichen Kommentar von blord-castillo oben.

Wenn der unmittelbare und endgültige Verwendungszweck der Antennen die visuelle Attraktivität oder die Hintergrundkartierung ist, würde ich die schnellste Methode wählen, mit der Sie ein brauchbares Produkt erhalten.

  • Wenn die Zellengröße der neuen Antenne mit der des Originals übereinstimmt, funktioniert NEAREST meiner Meinung nach am besten.

  • Wenn die Zellengröße der neuen Antenne größer als die des Originals ist, funktioniert BILINEAR am besten.

  • Wenn (aus irgendeinem verrückten Grund) die Zellengröße der neuen Antenne kleiner ist als die des Originals, würde ich wieder NEAREST verwenden.

Die anderen Optionen, CUBIC und MAJORITY, führen zu Artefakten im erneut abgetasteten Produkt, benötigen mehr Zeit für die Verarbeitung und scheinen ansonsten nicht auf das zuzutreffen, was Sie tun möchten.

Als letzter Punkt: Während es wahr ist, dass der Prozess des Abtastens von Licht, das von der Erdoberfläche ausgeht / reflektiert wird, konzeptionell kontinuierlich ist, ist es auch wahr, dass die Erdoberfläche sowohl ein kontinuierliches als auch ein diskretes Phänomen aufweist.

  • Im Allgemeinen führt menschliche Aktivität zu diskreten Übergängen und

  • "Natürliche" Merkmale variieren häufig (aber nicht immer) kontinuierlich oder haben zumindest unscharfe Kanten.

Wie in meinem ersten Abschnitt oben angegeben, hängt die Art und Weise, wie Sie die Antennen manipulieren, davon ab, wie Sie sie voraussichtlich verwenden werden.

user23715
quelle
4

Ich weiß, dass diese Frage ziemlich alt ist, aber ich wollte meine 2 Cent hinzufügen, falls andere auf diesen Thread stoßen und versuchen, die gleiche Frage zu beantworten ...

Die vorherigen Antworten sind korrekt, wenn Sie Ihre Daten wirklich NEU PROBIEREN möchten, z. B. wenn Sie Ihre Daten von einer Pixelgröße von 30 m auf eine Pixelgröße von 90 m aggregieren. In diesem Fall versuchen Sie, einen neuen Wert für jedes einzelne Pixel basierend auf einer Sammlung von benachbarten Pixeln zu erstellen. Also ja, hier würden Sie für diskrete Datensätze Nearest Neighbor auswählen, während Sie für kontinuierliche Daten entweder Bilinear oder Cubic Convolution auswählen würden.

In dieser Frage geht es jedoch NICHT darum, die Daten neu abzutasten, sondern lediglich die vorhandenen Daten in eine neue Projektion zu konvertieren. Sie möchten dieselben Werte, nur in einer neuen Projektion. In diesem Fall möchten Sie das Nearest Neighbor Resampling sowohl für diskrete als auch für kontinuierliche Datensätze verwenden, um die Integrität Ihrer ursprünglichen Datenwerte zu gewährleisten. Ich weiß, dass diese Aussage gegen alles verstößt, was Sie über "Resampling" lesen, aber wirklich kritisch darüber nachdenken, was Sie erreichen wollen und was Sie mit den Daten tun. Außerdem gebe ich diese Empfehlung nicht aus einer Laune heraus ab ... Ich habe 5 Jahre lang an einer Promotion mit dem Schwerpunkt GIS / Fernerkundung gearbeitet und unterrichte GIS / Fernerkundungs-Grundkurse.

Ein weiterer Hinweis, das Original-Poster fragte nach Null und / oder negativen Werten ... Wenn diese Werte wahre Datenwerte sind (dh die Höhe kann tatsächlich 0 oder -34,5 sein), dann möchten Sie diese Werte einbeziehen. Allerdings , wenn der Wert (e) in Frage sind nicht wahr Daten und stattdessen verwendet nodata (etwa 0 oder -9999) darstellen, dann müssen Sie diese Pixel aus dem Raster maskieren (Entfernen) vor dem Resampling über bilinear oder kubische Faltung . Andernfalls werden diese -9999 Pixel in die Neuabtastungsberechnung einbezogen, als hätte dieses Pixel eine tatsächliche Höhe von -9999 und Sie würden ungültige Datenwerte erhalten. Als SEHR vereinfachtes Beispiel in der kubischen Faltung könnte ein neuer Pixelwert von -9974 resultieren, wenn Ihre 4 nächsten Zellenwerte 4, 5, 16, -9999 sind, einschließlich -9999, was keine gültigen Daten sind.

Rachel M
quelle