Hauptinhalt
Fernerkundung und räumliche Vorhersage
Projektleitung
Prof. Dr. Jörg Bendix
Universitätsprofessor
Geoökologie | Fachbereich Geographie | Philipps-Universität Marburg
Zur Personenseite
Prof. Dr. Thomas Nauss
Universitätsprofessor
Umweltinformatik | Fachbereich Geographie | Philipps-Universität Marburg
Zur Personenseite
Dr. Christoph Reudenbach
Abteilungsleiter
Geoinformatik | Fachbereich Geographie | Philipps-Universität Marburg
Zur Personenseite
Team
Lisa Bald
Wissenschaftliche Mitarbeiterin
Umweltinformatik | Fachbereich Geographie | Philipps-Universität Marburg
Zur Personenseite
Dr. Alexey Noskov
Wissenschaftlicher Mitarbeiter
Geoökologie | Fachbereich Geographie | Philipps-Universität Marburg
Zur Personenseite
Ausgangsbasis
Um konsistente, raum-zeitliche Datensätze bereitzustellen, müssen die irregulär vorliegenden Sensordaten in NatNet mit flächendeckenden, fernerkundlich erfassten Geodatensätzen verbunden werden. Die Ableitung von Ökosysteminformationen aus den heterogenen Fernerkundungsdaten erfordert dabei den Einsatz leistungsfähiger, maschineller Lernverfahren. Für das Monitoring von fliegenden Insekten und Vögeln ist ferner der Einbezug von Radar- und akustischen Informationen erforderlich. Allerdings stecken insbesondere die Radarverfahren zur mobilen Insektenerfassung noch in den Kinderschuhen und müssen auf Basis miniaturisierter Sensoren weiterentwickelt werden.
Ziele
- Operationalisierung der UAV-Prototypen für quasi-autonome, zeitlich hochaufgelöste Befliegungsprotokolle.
- Entwicklung von Verfahren zur Ableitung der vertikalen und horizontalen Ökosystemstruktur durch kostengünstige VIS/NIR-Kameras.
- Entwicklung von deep-learning Modellierungsstrategien zur automatischen Erkennung relevanter Zielgrößen in den Sensorfotos.
- Aufbau und Test eines mobilen (Rover-fähigen) Insektenradars mit Bauteilen aus der Forschung zum autonomen Fahren.
- Akustische Detektion und Erkennung von Vogelarten.
- Entwicklung von maschinellen Lernmodellen zur skalenübergreifenden räumlichen Vorhersage von Ökosystemparametern auf Grundlage der Sensordaten und abgeleiteter Informationen.
Arbeitsprogramm
Die operationelle Datenerfassung mit (preiswerten) UAVs wurde bereits getestet. Die Auswertung der UAV-Datensätze benötigt Verfahren, die unmittelbar auf den hochaufgelösten (< 1 cm) optischen 3D-Punktwolken ansetzen, die sich aus überlappenden Aufnahmen ergeben. Erste Tests mit maschinellen Lernverfahren zeigen zuverlässige Ergebnisse im Vergleich zu LiDAR-Analysen. Unter Verwendung effizienter Algorithmen (UM3, UM4) werden Modelle zur Ableitung der Biodiversität, Abgrenzung der Baumindividuen, Totholzanteil, 3D-Struktur etc. entwickelt und in die NatDB (UM1) implementiert.
Für die Erkennung von Nahrungsangebot, Phänologie, weiteren ökologisch relevanten Informationen (potentielle Nisthöhlen, ÖP4 etc.) sowie Tierarten auf Basis von Fotofallen (u.a. Pick-Versuche, ÖP6) wird eine Bilddatenbank aufgebaut. Für die Objekterkennung auf den vorprozessierten Bildern (UM3, UM4) werden deep-learning Verfahren verwendet.
Für die kontinuierliche Erkennung fliegender Insekten soll ein Verfahren auf Basis eines experimentellen 60 GHz-Doppler-Radars entwickelt werden. Der Radar-Prototyp, der im Rahmen der Technik zum autonomen Fahren entwickelt wurde, ist klein genug, um auf Rovern o.ä. eingesetzt zu werden. Aus den Messgrößen Reflektivität, Signalform und -dauer sowie Geschwindigkeit sollen Insektenzahlen und -masse sowie, wenn möglich, die Größenverteilung abgeleitet werden. Dazu werden Radarsensoren im Einflugbereich optischer Insektenfallen (nachaktive Insekten) und im Fallbereich von Trichterfall-Experimenten aufgebaut (ÖP2). Die Insekten fliegen/fallen durch den Radarstrahl in die Falle, sodass die Größenverteilung und Masse der gesammelten Insekten über Transferfunktionen aus den ausgewerteten kurzfristigen Insektenspektren und dem Radarsignal abgeleitet werden können. Darüber hinaus werden die spezifischen Radar-Signaltypen verschiedener Artengruppen untersucht, indem einzelne Insektengruppen aus dem Experiment selektiert und zur Kalibrierung verwendet werden. Bei der Entwicklung der Transferfunktionen kommen Regularisierungsverfahren (UM3, UM4) zum Einsatz.
Im Bereich der akustischen Fernerkundung sollen die durch die Sensorboxen aufgenommenen Umweltgeräusche analysiert werden. Die Spektrogramme der im Gebiet zu erwartenden Vögel werden aus bekannten Datenbanken für diese Arten abgeleitet. Die aufgenommenen Akustikdaten werden rauschkorrigiert (Entfernen von Störsignalen wie Wind, Verkehr etc., UM3) und dann zur Extraktion des Rufes klassifiziert. Begleitende Punktaufnahmen von Vögeln (ÖP6) erlauben eine Validierung der akustischen Signale.
Für die Modellierung hochauflösender Rasterkarten werden maschinell lernende Methoden entwickelt, die eine räumliche Vorhersage der feinmaschig erfassten, aber irregulären Messungen der Sensorboxen bzw. der daraus abgeleiteten Informationen ermöglichen. Die Grundlage bilden hochaufgelöste, flächendeckende Geodatensätze, die v.a. aus den UAV-Befliegungen aber auch aus hochauflösenden Satellitendaten berechnet werden. Die durch Expertenerhebungen (Projektbereich ÖP) bereitgestellten Referenzdaten werden zum Trainieren und Testen verwendet. Vergleichbare Ansätze wurden bereits erfolgreich für die Ableitung verschiedener Ökosystemparameter eingesetzt, wobei eine Weiterentwicklung von maschinellen Lernstrategien zusammen mit UM4 dafür notwendig ist.