Joshua-Bäume mit LiDAR-Daten identifizieren?


9

Ich arbeite an einem LiDAR-Projekt, um festzustellen, wo sich Joshua-Bäume in einem bestimmten Untersuchungsgebiet befinden. Aufgrund der geringen Vegetationsbedeckung gibt es dort tatsächlich zwei Arten von Baumkronen, nämlich Joshua-Bäume und Pappeln. Ich glaube, dass dies eine relativ einfache LiDAR-Analyse ist, da der Artenreichtum im Baldachin sehr begrenzt ist. Mein Ansatz war es, ein Bare-Earth-Raster (DEM) und dann ein erstes Return-Raster zu erstellen. Ich würde dann die nackte Erde vom ersten Rückkehrraster subtrahieren, um ein Vegetationsraster zu erstellen. Ich könnte Geräusche (z. B. Stromleitungen, Gebäude) leicht entfernen, indem ich eine Grundkarte zur Überprüfung verwende. Da der Kunde alle Joshua-Bäume> = 12 Fuß sehen möchte, würde ich das Vegetationsraster einfach neu klassifizieren. Auf diese Weise sollte ich in der Lage sein, alle Baumarten, die Joshua-Bäume sein sollten, in meinem Untersuchungsgebiet zu sehen.

Dies ist die Methode, die ich in ArcMap befolgt habe:

Erstellen Sie eine Ebene mit nackten Erden

  1. Erstellen Sie mit dem Werkzeug LAS-Datensatz erstellen einen Las-Datensatz des ausgewählten Untersuchungsgebiets
  2. Machen Sie ein liest Dataset - Layer mit dieser Schicht mit dem Make LAS - Dataset - Layer - Tool
    ein. Wählen Sie 2 (Masse) aus den Klassencodes
  3. Konvertieren Sie diese Ebene mit dem Werkzeug LAS-Datensatz in Raster in Raster.

Vegetationsschicht erstellen

  1. WIEDERHOLEN SIE DIE SCHRITTE 2 UND 3 WIEDER, ABER WÄHLEN SIE DIE 1. RÜCKGABE UNTER den Rückgabewerten (optional), WENN SIE DAS MAKE LAS DATASET LAYER TOOL VERWENDEN.

  2. Subtrahieren Sie das Bare-Earth-Raster mit dem Minus-Werkzeug vom 1. Return-Raster

     1st Return (raster) – Bare Earth (raster) = Vegetation Layer
    
  3. Verwenden Sie das Reklassifizierungswerkzeug, um zu bestimmen, was 12 Fuß und mehr beträgt:

           Classification: Natural Breaks (Jenks)
    
           Classes: 2
    
           Break values: 3.66, 10.725098
    

Hat jemand Erfahrung damit und kann möglicherweise einige Tipps / Hinweise geben, wo ich falsch liegen könnte? Wenn die Leute bessere Methoden kennen, bin ich offen für Ideen!


"Mit dieser Methode konnte ich nur die höchsten nackten Erdpunkte im Untersuchungsgebiet erstellen ...". Ich konnte fast alles verstehen, was Sie beschrieben haben, mit Ausnahme dieses Schlüsselteils (dh der unerwarteten Ausgabe). Können Sie das klarstellen (mit anderen Worten, fügen Sie einen Screenshot hinzu)? Vielen Dank.
Andre Silva

Antworten:


3

Die "Qualität" des CHM-Rasters, das Sie aus den LiDAR-Punkten als Eingabe für den CanopyMaxima-Algorithmus generieren, wirkt sich erheblich auf Ihre Ergebnisse aus. Ich schlage vor, einige Methoden zum Generieren eines CHM auszuprobieren, wie z

  • einfaches Gitter / Binning mit höchster Rendite
  • Die höchsten Renditen wurden zu einem kleinen Plattengitter / Binning
  • First-Return-Interpolation über eine TIN, gefolgt von Rasterung
  • TIN-Interpolation nur der höchsten Renditen in einem Raster und Rasterung
  • der grubenfreie Algorithmus basierend auf partiellen CHMs
  • der spike-freie Algorithmus basierend auf Spike-Vermeidung.

Diese beiden Blog-Artikel zu pit-free und spike-free beschreiben, wie mit LAStools CHM-Raster mit den verschiedenen oben aufgeführten Methoden generiert werden .


2

Es scheint, als würden Sie versuchen, mit Ihrem Workflow ein Modell für die Überdachungshöhe zu erstellen. Dies zeigt die Höhe aller Objekte über dem Boden. Mit Blick auf Ihre interessierenden Arten wachsen Pappelbäume normalerweise hoch und in Ufergebieten und Überschwemmungsgebieten. Joshua Bäume sind trockenere Hochlandbäume. Daher würde eine Neuklassifizierung des Baldachinhöhenmodells, um alle Pixel> = 12 'einzuschließen, sicherlich beide Arten und nicht nur Joshua-Bäume einschließen.

ArcGIS eignet sich hervorragend für die Bearbeitung abgeleiteter LiDAR-Produkte, hat jedoch noch einen langen Weg vor sich, wenn es um die LiDAR-Verarbeitung geht. Ich würde eher FUSION empfehlen , das für die Arbeit an LiDAR-Forstanwendungen optimiert ist. Ich würde einen Algorithmus in FUSION namens CanopyMaxima empfehlen, um einzelne Bäume in Ihrem AOI zu identifizieren. Aus der Dokumentation (S.26) :

CanopyMaxima wird am häufigsten verwendet, um einzelne dominante und codominante Bäume zu identifizieren, wie sie in einem Canopy-Höhenmodell dargestellt werden. Es funktioniert am besten für Nadelbäume, die relativ isoliert sind. In dichten Beständen können Bäume, die in unmittelbarer Nähe zueinander wachsen, nicht getrennt werden. Das Ergebnis ist ein einzelnes lokales Maximum, bei dem es mehr als ein Maximum geben sollte. Der Algorithmus funktioniert in Laubwäldern nicht gut, da die Kronenform für solche Bäume tendenziell runder ist und sich die Kronen nahe der Baumspitze überlappen

Der Befehl ist relativ einfach:

CanopyMaxima /img24 canopy_maxima_test_1m.dtm testtrees.csv

Von hier aus haben Sie eine CSV-Datei, die die Koordinaten einzelner Bäume zeigt. Berücksichtigen Sie den folgenden Workflow, um Pappeln herauszufiltern:

  1. Konvertieren Sie die CSV der Baumposition in ein Punkt-Shapefile
  2. Identifizieren Sie Uferbereiche (z. B. durch Schwellenwertbildung für ein DEM oder Pufferung einer Stream-Ebene) und filtern Sie damit alle Baumstandortpunkte innerhalb der Uferbereiche heraus.

Vielen Dank für die Hilfe. Ich habe ein paar Fragen. Sollte ich den DTM in ArcMap erstellen und diesen DTM dann im obigen Algorithmus verwenden? Wo gebe ich diesen Algorithmus in Fusion ein? Ich habe wirklich keine Erfahrung mit diesem Softwareprogramm. Wenn Sie Zeit haben, würde ich dies gerne weiter mit Ihnen besprechen. Vielleicht sogar am Telefon. Ich habe gelesen, dass Sie ein Berater sind. Vielleicht könnten wir eine Vereinbarung über eine Gebühr treffen und daran arbeiten, damit ich eine Methodik für mein Projekt entwickeln kann. Meine Nummer ist 3076907598. Vielen Dank !!
Tommy JH
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.