LWF aktuell 156
Aus der Luft erkannt: Präzise Schaderfassung in Laubwäldern
von Johannes Jurgovsky, Christoph Straub, Rudolf Seitz
Technische Fortschritte in der Fernerkundung liefern immer detailliertere Daten der Erdoberfläche. Dies kann auch die Erfassung und Dokumentation von Schäden im Wald verbessern. Zudem eröffnen KI-Algorithmen neue Möglichkeiten für die automatisierte Auswertung dieser Daten. Aktuell untersucht die LWF im Forschungsprojekt »AirLaserSpec« einen innovativen Ansatz zur Erfassung von Laubholzschäden, bei dem 3D-Lasermessungen mit Multispektralaufnahmen kombiniert werden.
Zoombild vorhanden
Abb. 1a: Typische Schäden an Buchenkronen im Projektgebiet Ebrach (© J. Jurgovsky)
Zoombild vorhanden
Abb. 1b: Typische Schäden an Buchenkronen im Projektgebiet Ebrach (© J. Jurgovsky)
Fernerkundung zur Erfassung geschädigter Buchen
Laubholzschäden können mittels Fernerkundung zum einen über spektrale Reflexionsunterschiede zwischen geschädigten und vitalen Kronen identifiziert werden und zum anderen über Veränderungen in der Höhenstruktur der betroffenen Baumkronen. Im Forschungsprojekt »AirLaserSpec« werden Luftbilder einer Multispektralkamera mit Lasermessungen kombiniert, um zusätzlich zu den Stereo-Luftbilddaten simultan präzise Höhenmessungen zu erhalten. Vor der weiteren Verarbeitung wurden zunächst aus den Stereo-Bildern sowohl Echtfarben- als auch Color-Infrarot-Orthophotos mit einer sehr hohen räumlichen Auflösung von 0,1 m berechnet (Abbildungen 2a und 2b).
Die derzeit genaueste fernerkundliche Technik zur Höhenmessung ist die Laserscanermessung, welche häufig auch als LiDAR (Light Detection and Ranging) Technologie bezeichnet wird. Ein LiDARSystem sendet Laserlichtpulse aus und misst die Laufzeit der reflektierten Signale, um daraus die Entfernung zu berechnen. Wird diese Technik in einem Flugzeug eingebaut, können damit präzise 3D-Punktwolken der beflogenen Landschaft gewonnen werden. Bei den Befliegungen für AirLaserSpec wurden im Mittel ca. 40 Laserpunkte pro m² gemessen. Auf Grundlage einer solchen Punktwolke können mit geeigneten Algorithmen sowohl hochaufgelöste Oberflächenmodelle inklusive Vegetation und Bebauung als auch Geländemodelle des Bodens unterhalb der Vegetation berechnet werden (Abbildungen 2c und 2d).

Wie funktioniert die automatisierte Datenauswertung?
Zoombild vorhanden
Abb. 3: Trockenschänden in unterfränkischen Laubwäldern (© S. Thierfelder, AELF Schweinfurth)
Unterschiede in der Bildinterpretation
Es zeigte sich, dass die visuelle Beurteilung, ob ein Bildbereich gerade noch oder eben nicht mehr als geschädigt eingestuft wird, immer wieder eine Herausforderung darstellt. Der Übergang zwischen diesen beiden Kategorien erscheint oftmals fließend. Dadurch ist die Schadflächenerfassung unterschiedlicher Luftbildinterpreten in der Regel nicht deckungsgleich. Um diese Unschärfe in den Trainingsdaten zu quantifizieren, wurde eine kleine Testfläche mit einer Größe von 3,4 ha ausgewählt. In dieser Testfläche digitalisierten vier Luftbildinterpreten unabhängig voneinander die geschädigten Kronenbereiche (Abbildung 4, links). Als Kennzahl zur Bewertung der Übereinstimmung der resultierenden Trainingspolygone wurde die sogenannte Intersection over Union (IoU) berechnet. Eine Erklärung zur Berechnung und Beurteilung der IoU findet sich in der Infobox. Im Mittel zeigten die manuell abgegrenzten Schadflächen der vier Interpreten eine IoU von 0,55. Die größten Abweichungen wurden vor allem an den Randbereichen der Polygone festgestellt, was auch in der Veröffentlichung von Joshi & Witharana (2025) beschrieben wird.
Abb 4a: Dargestellt ist eine Testfläche aus dem Projektgebiet Ebrach. Vier Luftbildinterpreten haben hier geschädigte Laubholzkronen auf der Grundlage der Orthophotos abgegrenzt. Deutlich erkennbar sind die Abweichungen in den Ergebnissen, insbesondere im Randbereich der Polygone (© LWF)
Zoombild vorhanden
(© LWF)
Automatisierte Klassifikation geschädigter Laubholzkronen
| Klassifikationsverfahren | Pixelgröße der verwendeten Color-Infrarot Orthophotos | Übereinstimmung zwischen automatisierter und manueller Klassifizierung: Intersection over Union (IoU) |
|---|---|---|
| U-Net | 1 m × 1 m | 0.534 ± 0.073 |
| U-Net | 0,1 m × 0,1 m | 0.606 ± 0.092 |
Abb. 5: Ergebnisse des automatisierten Klassifizierungsverfahrens zur Erfassung geschädigter Laubholzkronen (© LWF)
Mit den oben beschriebenen Trainingsdaten wurde das etablierte Klassifikationsverfahren U-Net (Ronneberger et al., 2015) aus der Gruppe der Deep Learning Verfahren trainiert und validiert (Abbildung 5). U-Net ist ein vergleichsweise einfaches Deep Learning-Verfahren. Es findet jedoch seit Jahren breite Anwendung in der fernerkundlichen Klassifikation und liefert trotz seiner einfachen Struktur zuverlässig gute Ergebnisse. Als Eingangsdaten in die Klassifikation dienten die Color-Infrarot-Orthophotos von dem Projektgebiet Ebrach. Um den Einfluss der räumlichen Auflösung der Eingangsdaten auf das Klassifikationsergebnis zu prüfen, wurde für das U-Net-Verfahren sowohl eine reduzierte Auflösung von 1 m x 1 m Pixelgröße als auch die originäre Auflösung der Bilddaten von 0,1 m x 0,1 m erprobt. Als Kennzahl zur Bewertung der Übereinstimmung zwischen automatisierter Klassifizierung und manueller Referenz wurde wieder die Intersection over Union berechnet.
Basierend auf den originären Orthophotos mit 0,1 m x 0,1 m Auflösung erzielte das U-Net Verfahren einen IoU-Wert von 0,606. Dies entspricht ungefähr der Übereinstimmung, welche die vier Luftbildinterpreten im Mittel auf der Testfläche erzielten. Selbst bei reduzierter Auflösung erreicht das U-Net-Verfahren noch einen guten IoU-Wert von 0.534. Zukünftige
LiDAR-basierte Auswerteverfahren müssen sich an dieser Genauigkeit messen lassen, da ihre maximale Auflösung wegen der Punktdichte der Lasermessungen ebenfalls auf 1 m x 1 m begrenzt sein wird (siehe Fortführung und Anwendungspotenzial). Abbildung 4, rechts zeigt die Anwendung dieses U-Net-Modells auf die Testfläche aus dem Projektgebiet Ebrach. Neben U-Net bietet die Gruppe der Deep Learning-Verfahren eine Vielzahl weiterer Ansätze, die zwar in gleicher Weise auf die Fragestellung anwendbar sind, jedoch eine wesentlich komplexere und damit rechenintensivere Struktur aufweisen. Da all diese Verfahren die Abgrenzung von Kronentotholz aus Trainingsdaten erlernen, können solche Verfahren auch nur diejenige mittlere Genauigkeit erreichen, die von Luftbildinterpreten im Mittel vorgegeben wird. Die Beobachtung, dass selbst das vergleichsweise einfache U-Net der Klassifikationsgenauigkeit von Luftbildinterpreten nahekommt, deutet darauf hin, dass die Erkennungsgenauigkeit nicht durch das verwendete Verfahren limitiert ist. Vielmehr entscheidet die eindeutige Abgrenzbarkeit der betrachteten Klassen und die Qualität der Trainingsdaten darüber, welche maximale Genauigkeit erzielt werden kann.
Fortführung und Anwendungspotenzial
Zoombild vorhanden
Abb. 6: Automatisch detektiertes Kronentotholz im Projektgebiet. Jeder rote Punkt markiert einen Baum, der automatisiert als geschädigt erkannt wurde (© LWF)
Zusammenfassung
Das Forschungsprojekt AirLaserSpec der LWF befasst sich mit innovativen Techniken und der Erfassung von Schäden an Laubholz sowie der Analyse von Bewuchs in Bestandeslücken. Dafür wurden Flugzeugbefliegungen mit Laserscanning-Technologie und Multispektralkamera in zwei ausgewählten Gebieten in Nordbayern durchgeführt. Derzeit entwickelt die LWF automatisierte Auswerteverfahren, die auf maschinellem Lernen basieren. Für das Training der Algorithmen wurden insgesamt über 10.000 geschädigte Laubholzkronen manuell von mehreren Luftbildinterpreten digitalisiert. Die bisher besten Ergebnisse in der Klassifikationsgenauigkeit wurden mithilfe eines etablierten U-Net-Verfahrens erzielt, das auf Color-Infrarot-Bilddaten basiert. In zukünftigen Arbeiten wird die zusätzliche Nutzung der Lasermessungen zur Schaderfassung untersucht und die Übertragbarkeit der entwickelten Modelle auf verschiedene Datensätze geprüft. Ziel des Projektes ist es, präzise Informationen über Schäden in Laubholzbeständen für die Forstpraxis zu liefern.
Projekt
Das Projekt »AirLaserSpec« wird vom Bayerischen Staatsministerium für Ernährung, Landwirtschaft, Forsten und Tourismus (StMELF) finanziert (Laufzeit: 01.10.2023–30.11.2027).
Beitrag zum Ausdrucken
Weiterführende Informationen
Autoren
- Dr. Johannes Jurgovsky
- Dr. Christoph Straub
- Rudolf Seitz

