Hilft eine große Menge an GPU-Speicher beim Arbeiten mit sehr großen Bildern und Bildmosaiken?


14

Es scheint sehr hilfreich zu sein, so viel Bild wie möglich auf der GPU für das Schwenken und Zoomen usw. zu speichern.

Wir haben es mit vielen sehr großen Bildern zu tun. Viele haben eine Größe von 8 GB bis zu Hunderten GB. Zu Hause habe ich einen 40 "4k-Monitor und eine GTX Titan mit 12 GB Videospeicher und erweist sich bei allem, was ich damit zu tun habe, als erstaunlich gut. Er sieht auch beim Anzeigen von Bildern hervorragend aus Arbeit?

Wären QGIS , ArcMap und PCI Geomatica in der Lage, beim Umgang mit Multi-Gigabyte-Bildern und Bildmosaiken im Bereich von Hunderten von Gigabyte-Bildern reichlich Grafikspeicher zu nutzen?

Welche GIS-Anwendungen würden am meisten von einer Fülle von GPU-Speicher profitieren, wenn sie mit großen Bildern arbeiten?


4
Für ein Programm wie ArcMap ist die Verwendung einer High-End-GPU für die Arbeit mit großen Rastern nicht von entscheidender Bedeutung. Vielmehr ist es ratsam, große Mengen an RAM zur Verfügung zu haben, um die Raster-Verarbeitung, wie z. B. das Mosaizieren, zu verarbeiten. Leider verfügt ArcGIS nur über sehr eingeschränkte GPU-Verarbeitungsfunktionen. Ich kann nicht für QGIS oder PCI sprechen. Aufgrund der hervorragenden Unterstützung von GPU-Prozessoren kann es sich lohnen, sich mit der Bildverarbeitung in Matlab zu befassen.
Aaron

3
Die GIS-Software, die ich kenne, macht das Beste aus der GPU-Leistung von Manifold GIS. Ich glaube, es unterstützt bis zu vier GPUs mit Nvidia CUDA-Kernen. Es ist auch native 64-Bit und wird sowohl Multi-Core- als auch Multi-CPU-Konfigurationen nutzen. Richtig eingestellt, kann eine Manifold-Maschine ein Biest sein. Leider liegen ArcGIS und QGIS in dieser Hinsicht weit zurück. Ich weiß nichts über PCI Geomatics.
Baltok

1
Wie @Aaron sagte, mag ArcGis mehr RAM an Bord und eine schnellere Festplatte (oder SSD). Dies hängt damit zusammen, wie sie als Caches im RAM gerendert wird und wirft die kompilierte Bitmap zur Anzeige auf die Grafikkarte - die ganze Arbeit wird von einem einzelnen Thread im Mainboard-Speicher durchgeführt. Esri ist immer noch eine Single-Thread-Anwendung, obwohl seit Ende der 90er Jahre mehrere Kerne verfügbar sind. Viele von uns hoffen, dass ArcGis Pro die Unterstützung mehrerer Threads von Grund auf ermöglicht.
Michael Stimson

1
Einige spezielle Werkzeuge erweitert werden , um speziell die Vorteile von High - End - GPU zu nehmen, wie Viewshed2 Eine Reihe von Werkzeugen, Mosaik - Verarbeitung diejenigen , beispielsweise können die Vorteile der mehrere Kerne in ArcGIS 10.2+
KHibma

Antworten:


16

Esri hat ArcGIS Pro veröffentlicht, das die GPU für das Rendern und einige Verarbeitungsschritte verwendet:

In ArcGIS Pro begrenzt das Grafikmodul das Zeichnen basierend auf den Fähigkeiten Ihrer Grafikverarbeitungseinheit (GPU).

Spatial Analyst bietet jetzt eine verbesserte Leistung mit der Verwendung der GPU-Verarbeitung (Graphics Processing Unit) für einige Tools. Diese Technologie nutzt die Rechenleistung der Grafikkarte in modernen Computern, um die Leistung bestimmter Vorgänge zu verbessern.


3

Das einzige GIS, das die GPU-Leistung für die Datenverarbeitung nutzt, heißt MapD. Harvard Tweetmap-Daten werden über diese Software verarbeitet.

Harvard Tweetmap Unterstützt von MapD

MapD-Projekt - Massive Geodatenverarbeitung

Eine andere Möglichkeit besteht darin, die ArcGIS-Hintergrundverarbeitung für den 64-Bit-Prozessor zu installieren.

Dadurch wird die Berechnungszeit für das Rasterbild deutlich verkürzt, da sich alle im Hintergrund befinden.

ArcGIS-Hintergrund-Geoverarbeitung


3

Für die Bildverarbeitung gibt es derzeit zwei Projekte, die sich damit beschäftigen:

Diese Projekte befassen sich direkt mit parallelen Systemen (wie GPU-Verarbeitung und High Performance Computing), sind jedoch nicht darauf beschränkt und können auf verteilten Systemen implementiert werden. GIS Tools for Hadoop wurde ursprünglich für die Arbeit in einer Hadoop-Umgebung entwickelt, jetzt werden sie jedoch zu Spark verschoben. Geotrellis war direkt an Spark beteiligt.

Wenn es um paralleles / verteiltes Rechnen bei der Bildverarbeitung / Fernerkundung geht, muss berücksichtigt werden, dass die meisten Algorithmen so implementiert sind, dass die Daten während der Verarbeitung serialisiert werden. Daher besteht der große Aufwand für Projekte heutzutage darin, diese alten Algorithmen auf die Verarbeitung verteilter Daten zu verlagern Strukturen, die ziemlich herausfordernd ist.


2

Ich würde nicht übergeneralisieren und sagen, "GIS-Software verwendet keine GPU für die Verarbeitung", wenn ich nur über ArcMap spreche. Alles, was OpenGL oder DirectX mit Shadern verwendet, nutzt den GPU-Speicher: Google Earth, ArcScene / ArcGlobe, ENVI, OpenSceneGraph, AmigoCloud, CesiumJS usw.


Das Rendern ist nicht dasselbe wie das Portieren von Algorithmen auf die GPU, was insbesondere für Vektoren eine viel größere Herausforderung darstellt.
John Powell
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.