Hauptinhalt

Fernerkundung und räumliche Vorhersage

Projektleitung

Prof. Dr. Jörg Bendix 
Universitätsprofessor

Geoökologie | Fachbereich Geographie | Philipps-Universität Marburg

Zur Personenseite

Prof. Dr. Thomas Nauss
Universitätsprofessor

Umweltinformatik | Fachbereich Geographie | Philipps-Universität Marburg

Zur Personenseite

Dr. Christoph Reudenbach
Abteilungsleiter

Geoinformatik | Fachbereich Geographie | Philipps-Universität Marburg

Zur Personenseite

Team

Dr. Nicolas Frieß
Wissenschaftlicher Mitarbeiter

Umweltinformatik | Fachbereich Geographie | Philipps-Universität Marburg

Zur Personenseite

Marvin Ludwig
Doktorand

Umweltinformatik | Fachbereich Geographie | Philipps-Universität Marburg

Zur Personenseite

Dr. Alexey Noskov
Wissenschaftlicher Mitarbeiter

Geoökologie | Fachbereich Geographie | Philipps-Universität Marburg

Zur Personenseite

Ausgangsbasis

Um konsistente, raum-zeitliche Datensätze bereitzustellen, müssen die irregulär vorliegenden Sensordaten in NatNet mit flächendeckenden, fernerkundlich erfassten Geodatensätzen verbunden werden. Die Ableitung von Ökosysteminformationen aus den heterogenen Fernerkundungsdaten erfordert dabei den Einsatz leistungsfähiger, maschineller Lernverfahren. Für das Monitoring von fliegenden Insekten und Vögeln ist ferner der Einbezug von Radar- und akustischen Informationen erforderlich. Allerdings stecken insbesondere die Radarverfahren zur mobilen Insektenerfassung noch in den Kinderschuhen und müssen auf Basis miniaturisierter Sensoren weiterentwickelt werden.

Ziele

  1. Operationalisierung der UAV-Prototypen für quasi-autonome, zeitlich hochaufgelöste Befliegungsprotokolle.
  2. Entwicklung von Verfahren zur Ableitung der vertikalen und horizontalen Ökosystemstruktur durch kostengünstige VIS/NIR-Kameras.
  3. Entwicklung von deep-learning Modellierungsstrategien zur automatischen Erkennung relevanter Zielgrößen in den Sensorfotos.
  4. Aufbau und Test eines mobilen (Rover-fähigen) Insektenradars mit Bauteilen aus der Forschung zum autonomen Fahren.
  5. Akustische Detektion und Erkennung von Vogelarten.
  6. Entwicklung von maschinellen Lernmodellen zur skalenübergreifenden räumlichen Vorhersage von Ökosystemparametern auf Grundlage der Sensordaten und abgeleiteter Informationen.

Arbeitsprogramm

Die operationelle Datenerfassung mit (preiswerten) UAVs wurde bereits getestet. Die Auswertung der UAV-Datensätze benötigt Verfahren, die unmittelbar auf den hochaufgelösten (< 1 cm) optischen 3D-Punktwolken ansetzen, die sich aus überlappenden Aufnahmen ergeben. Erste Tests mit maschinellen Lernverfahren zeigen zuverlässige Ergebnisse im Vergleich zu LiDAR-Analysen. Unter Verwendung effizienter Algorithmen (UM3, UM4) werden Modelle zur Ableitung der Biodiversität, Abgrenzung der Baumindividuen, Totholzanteil, 3D-Struktur etc. entwickelt und in die NatDB (UM1) implementiert.

Für die Erkennung von Nahrungsangebot, Phänologie, weiteren ökologisch relevanten Informationen (potentielle Nisthöhlen, ÖP4 etc.) sowie Tierarten auf Basis von Fotofallen (u.a. Pick-Versuche, ÖP6) wird eine Bilddatenbank aufgebaut. Für die Objekterkennung auf den vorprozessierten Bildern (UM3, UM4) werden deep-learning Verfahren verwendet.

Für die kontinuierliche Erkennung fliegender Insekten soll ein Verfahren auf Basis eines experimentellen 60 GHz-Doppler-Radars entwickelt werden. Der Radar-Prototyp, der im Rahmen der Technik zum autonomen Fahren entwickelt wurde, ist klein genug, um auf Rovern o.ä. eingesetzt zu werden. Aus den Messgrößen Reflektivität, Signalform und -dauer sowie Geschwindigkeit sollen Insektenzahlen und -masse sowie, wenn möglich, die Größenverteilung abgeleitet werden. Dazu werden Radarsensoren im Einflugbereich optischer Insektenfallen (nachaktive Insekten) und im Fallbereich von Trichterfall-Experimenten aufgebaut (ÖP2). Die Insekten fliegen/fallen durch den Radarstrahl in die Falle, sodass die Größenverteilung und Masse der gesammelten Insekten über Transferfunktionen aus den ausgewerteten kurzfristigen Insektenspektren und dem Radarsignal abgeleitet werden können. Darüber hinaus werden die spezifischen Radar-Signaltypen verschiedener Artengruppen untersucht, indem einzelne Insektengruppen aus dem Experiment selektiert und zur Kalibrierung verwendet werden. Bei der Entwicklung der Transferfunktionen kommen Regularisierungsverfahren (UM3, UM4) zum Einsatz.

Im Bereich der akustischen Fernerkundung sollen die durch die Sensorboxen aufgenommenen Umweltgeräusche analysiert werden. Die Spektrogramme der im Gebiet zu erwartenden Vögel werden aus bekannten Datenbanken für diese Arten abgeleitet. Die aufgenommenen Akustikdaten werden rauschkorrigiert (Entfernen von Störsignalen wie Wind, Verkehr etc., UM3) und dann zur Extraktion des Rufes klassifiziert. Begleitende Punktaufnahmen von Vögeln (ÖP6) erlauben eine Validierung der akustischen Signale.

Für die Modellierung hochauflösender Rasterkarten werden maschinell lernende Methoden entwickelt, die eine räumliche Vorhersage der feinmaschig erfassten, aber irregulären Messungen der Sensorboxen bzw. der daraus abgeleiteten Informationen ermöglichen. Die Grundlage bilden hochaufgelöste, flächendeckende Geodatensätze, die v.a. aus den UAV-Befliegungen aber auch aus hochauflösenden Satellitendaten berechnet werden. Die durch Expertenerhebungen (Projektbereich ÖP) bereitgestellten Referenzdaten werden zum Trainieren und Testen verwendet. Vergleichbare Ansätze wurden bereits erfolgreich für die Ableitung verschiedener Ökosystemparameter eingesetzt, wobei eine Weiterentwicklung von maschinellen Lernstrategien zusammen mit UM4 dafür notwendig ist.