Habitat Sampler

Habitat Sampler (HaSa, Community Version), ein innovatives Werkzeug, das selbstständig repräsentative Referenzproben für die prädiktive Modellierung von Oberflächenklassenwahrscheinlichkeiten erzeugt. Das R-Paket kann auf alle Bilddaten angewendet werden, die Oberflächenstrukturen und -dynamik jeglicher Art auf mehreren räumlichen und zeitlichen Skalen zeigen.

Die Hauptinnovation des Tools besteht darin, dass es die Abhängigkeit von umfassenden In-situ-Bodenwahrheitsdaten oder umfassenden Trainingsdatensätzen reduziert, die eine genaue Bildklassifizierung insbesondere in komplexen Szenen einschränken. HaSa wurde von Carsten Neumann (Helmholtz-Zentrum Potsdam GFZ Deutsches GeoForschungsZentrum) im Rahmen des vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Projekts NaTec - KRH entwickelt. Für eine detaillierte Beschreibung des Habitat Samplers und seiner Anwendungen siehe Neumann et al., (2020).

Zielgruppe

HaSa wurde ursprünglich entwickelt, um die Lebensraumdynamik in naturnahen Ökosystemen zu klassifizieren, aber das Verfahren kann theoretisch auf jede Fläche angewendet werden. Damit ist es ein wichtiges Instrument für wissenschaftliche und kommunale Nutzende im Hinblick auf die fernerkundungsbasierte Überwachung verschiedener Ökosysteme.

Funktionen

Wichtigste Funktionen:

  • der Algorithmus liefert eine Reihe von Referenzmustern für jeden Klassentyp
  • der Algorithmus liefert ein Ensemble kalibrierter maschineller Lernklassifikatoren für jeden Klassentyp
  • der Algorithmus liefert eine Karte der Klassentyp-Wahrscheinlichkeiten
  • der Algorithmus ist für breit angelegte Satellitenbild-Zeitreihen (Pixelgröße > 10 m) optimiert
  • der Algorithmus kann auf variable Bildklassen in komplexen Szenen angewendet werden
  • der Algorithmus ist auf variable Eingangsbilder übertragbar

Das Tool ist in R implementiert und verwendet Leaflet (Cheng et al., 2019) zur Erstellung interaktiver Karten in einem Webbrowser. Es gibt keine Annahmen über die eingegebenen Bilddaten und es gibt keine Einschränkungen für den spektral-zeitlich-räumlichen Bereich, in dem das Bild abgetastet wird. Das Tool erfordert die Eingabe von a priori Expertenwissen von Nutzenden, um Referenzdaten über erwartete Oberflächenklassen zu generieren, die im Bildmaterial eingezeichnet oder aus einer externen Spektralbibliothek extrahiert sind. Benutzende haben die Wahl zwischen den Bildklassifikatoren Random Forest (RF) und Support Vector (SV).

Ein Demo-Verzeichnis bietet ein schrittweises Vorgehen über ein R-Skript, aber auch über ein Jupyter-Notebook. HaSa befindet sich noch in der Entwicklung und alle Vorschläge und Verbesserungen werden in unserer GitLab Community Version begrüßt und gefördert. Sollten Fragen offen bleiben, zögern Sie bitte nicht, die Autoren des Pakets zu kontaktieren.

Kontakt


Carsten Neumann
Wissenschaftler
Dr. Carsten Neumann
Fernerkundung und Geoinformatik
Telegrafenberg
Gebäude A 17, Raum 01.13
14473 Potsdam
+49 331 288-1766
Zum Profil

Steckbrief

Link:

GitLab

Lizenz:

GPLv3

Release:

Version v1.3.0 on 10. Aug 2021

Programmiersprache:

R

Keywords:

#autonomous sampling #image classification #active learning #ecosystem analysis

DOI:

10.1111/ddi.13165

Hauptbeitragende Organisationen:

FERN.Lab

Helmholtz-Zentrum Potsdam GFZ Deutsches GeoForschungsZentrum

Heinz Sielmann Stiftung

Finanzierung:

Bundesministerium für Bildung und Forschung