Es scheint sehr hilfreich zu sein, so viel Bild wie möglich auf der GPU für das Schwenken und Zoomen usw. zu speichern.
Wir haben es mit vielen sehr großen Bildern zu tun. Viele haben eine Größe von 8 GB bis zu Hunderten GB. Zu Hause habe ich einen 40 "4k-Monitor und eine GTX Titan mit 12 GB Videospeicher und erweist sich bei allem, was ich damit zu tun habe, als erstaunlich gut. Er sieht auch beim Anzeigen von Bildern hervorragend aus Arbeit?
Wären QGIS , ArcMap und PCI Geomatica in der Lage, beim Umgang mit Multi-Gigabyte-Bildern und Bildmosaiken im Bereich von Hunderten von Gigabyte-Bildern reichlich Grafikspeicher zu nutzen?
Welche GIS-Anwendungen würden am meisten von einer Fülle von GPU-Speicher profitieren, wenn sie mit großen Bildern arbeiten?
quelle
Antworten:
Esri hat ArcGIS Pro veröffentlicht, das die GPU für das Rendern und einige Verarbeitungsschritte verwendet:
quelle
Das einzige GIS, das die GPU-Leistung für die Datenverarbeitung nutzt, heißt MapD. Harvard Tweetmap-Daten werden über diese Software verarbeitet.
Harvard Tweetmap Unterstützt von MapD
MapD-Projekt - Massive Geodatenverarbeitung
Eine andere Möglichkeit besteht darin, die ArcGIS-Hintergrundverarbeitung für den 64-Bit-Prozessor zu installieren.
Dadurch wird die Berechnungszeit für das Rasterbild deutlich verkürzt, da sich alle im Hintergrund befinden.
ArcGIS-Hintergrund-Geoverarbeitung
quelle
Für die Bildverarbeitung gibt es derzeit zwei Projekte, die sich damit beschäftigen:
Diese Projekte befassen sich direkt mit parallelen Systemen (wie GPU-Verarbeitung und High Performance Computing), sind jedoch nicht darauf beschränkt und können auf verteilten Systemen implementiert werden. GIS Tools for Hadoop wurde ursprünglich für die Arbeit in einer Hadoop-Umgebung entwickelt, jetzt werden sie jedoch zu Spark verschoben. Geotrellis war direkt an Spark beteiligt.
Wenn es um paralleles / verteiltes Rechnen bei der Bildverarbeitung / Fernerkundung geht, muss berücksichtigt werden, dass die meisten Algorithmen so implementiert sind, dass die Daten während der Verarbeitung serialisiert werden. Daher besteht der große Aufwand für Projekte heutzutage darin, diese alten Algorithmen auf die Verarbeitung verteilter Daten zu verlagern Strukturen, die ziemlich herausfordernd ist.
quelle
Ich würde nicht übergeneralisieren und sagen, "GIS-Software verwendet keine GPU für die Verarbeitung", wenn ich nur über ArcMap spreche. Alles, was OpenGL oder DirectX mit Shadern verwendet, nutzt den GPU-Speicher: Google Earth, ArcScene / ArcGlobe, ENVI, OpenSceneGraph, AmigoCloud, CesiumJS usw.
quelle